Gjør som tusenvis av andre bokelskere
Abonner på vårt nyhetsbrev og få rabatter og inspirasjon til din neste leseopplevelse.
Ved å abonnere godtar du vår personvernerklæring.Du kan når som helst melde deg av våre nyhetsbrev.
Die erfolgreiche Etablierung und Vermarktung einer Region als Tourismusregion bzw. Destination ist eine Gemeinschaftsaufgabe und stellt große Herausforderungen an alle regionalen Tourismusakteure. In vielen Tourismusregionen mangelt es noch immer an professioneller Tourismusarbeit und einem effektiven Destination Management (DMO). Dieses Werk zeigt auf, wie Kooperation und Qualität verbessert, wie 360-Grad-Marketing genutzt und eine attraktive Destination mit profilierter Destinationsmarke gebildet werden können.
Ziel dieses Buches ist die systematische Entwicklung eines makroökonomischen Totalmodells, sowohl für geschlossene als auch für offene Volkswirtschaften. Dabei werden dem Leser zunächst die wesentlichen Grundlagen zum Güter- und Geldmarkt vermittelt, die dann in das Güter-Geldmarktmodell bei konstanten Preisen münden.Darauf aufbauend erfolgt eine Totalanalyse geschlossener, kleiner offener und großer offener Volkswirtschaften.In der 7. Aufl age wurde Kapitel 8, das die Neukeynesianische Makroökonomik behandelt, um ein Neukeynesianisches IS-LM-Modell, ein NKM-Modell für eine kleine Währungsunion sowie ein Neukeynesianisches Zwei-Länder-Modell großer offener Volkswirtschaften erweitert. Damit deckt das vorliegende methodenorientierte Lehrbuch vollständig die Keynesianische und Neukeynesianische Theorie geschlossener und offener Volkswirtschaften ab.
Allgemeine Maße und das Lebesgue-Integral gehören zu den unverzichtbaren Hilfsmitteln der modernen Analysis, der Funktionalanalysis und der Stochastik. Das vorliegende Lehrbuch bietet eine Einführung in die wesentlichen Aspekte der Theorie ¿ Maße, Integrale, Konvergenzsätze, Parameterintegrale, Satz von Fubini ¿, die durch weiterführende Themen ¿ allgemeiner Transformationssatz, Satz von Radon-Nikodým, Fouriertransformation von Maßen, topologische Maßtheorie ¿ abgerundet wird. Mehr als 150 Übungsaufgaben (mit vollständigen Lösungen im Internet) vertiefen und erweitern den Stoff. Die kompakte Darstellung bietet sich als Fortsetzung der Grundvorlesungen "Analysis" oder als Einstieg in die "Stochastik" an. Da nur Grundkenntnisse in Analysis und linearer Algebra vorausgesetzt werden, ist der Text auch für Studierende der Physik und Ingenieurswissenschaften sowie zum Selbststudium geeignet. In gleicher Ausstattung erscheinen die Folgebände "Wahrscheinlichkeit" und "Martingale & Prozesse".
Das Lehrbuch bietet didaktisch ein Drei-Stufen-Modell des Lernens an, um urheberrechtliche Kenntnisse erwerben bzw. vertiefen zu können. Zunächst werden auf der Grundlage theoretischer und praktischer Fragestellungen Probleme des nationalen und europäischen Urheberrechts und dessen Reformen aufgezeigt. Danach erfolgt eine rechtspolitische und dogmatische Bewertung der im Lehrbuch dargestellten Fälle. Schließlich werden verschiedene Lösungsmöglichkeiten unter Berücksichtigung der aktuellen Rechtsauffassungen des EuGH, des Bundesverfassungsgerichts und des BGH angeboten. Dazu werden im Anhang des Lehrbuchs die bedeutenden höchstrichterlichen Entscheidungen nach den entsprechenden Schwerpunkten angegeben. Das Lehrbuch soll eine Grundlage für Studierende in der Schwerpunktausbildung und für Fachanwälte auf dem Gebiet des Urheber-und Medienrechts sein.
Regelungstechnik 1 behandelt die Gebiete Lineare Regelung, Nichtlineare Regelung und den Rechnergestützten Reglerentwurf. Der erste Teil des Buches, die Lineare Regelung, stellt eine ausführliche Einführung in die Grundlagen der Regelungstechnik dar. Nach der Analyse der unterschiedlichen Regelstrecken werden klassische und neuere Reglersyntheseverfahren im Zeit- und Frequenzbereich auf diese Strecken angewendet und miteinander verglichen. In der Nichtlinearen Regelung wird die harmonische Analyse nichtlinearer Regelkreise auf der Basis von Beschreibungsfunktionen durchgeführt, zusätzlich werden Zwei- und Dreipunktregler für die Regelung proportionaler und integrierender Regelstrecken entworfen. Im Teil Rechnergestützter Reglerentwurf werden die Einsatzmöglichkeiten moderner Reglerentwurfs- und -testwerkzeuge wie MATLAB/Simulink und dSPACE-HW/SW aufgezeigt und beschrieben. Der Anhang bietet alles Wissenswerte zum Umgang mit der Laplace-Transformation und eine Tabelle häufig verwendeter Regelkreisglieder.
Dieses Standardwerk der analytischen Chemie behandelt die Grundlagen der Maßanalyse - sowohl die Theorie als auch wichtige Apparate und praktische Anwendungen. Alle Titrationsarten werden ausführlich und anhand von konkreten Beispielen behandelt. Das Buch enthält zusätzlich eine Einführung in die instrumentelle Maßanalyse. Ein unverzichtbares Buch für das Praktikum in quantitativer anorganischer Analyse. Standardwerk zur Theorie und Praxis der Titrationen für das Praktikum in quantitativer anorganischer Analyse Mit zahlreichen Beispielen und klar gekennzeichneten Arbeitsvorschriften
Das Buch behandelt anhand praktischer Beispiele lineare und nichtlineare Gleichstromkreise, Widerstände, Kondensatoren und Spulen. Die Grundbegriffe der Wechselstromtechnik werden simuliert, die Leistungen im Wechselstromkreis und in Schwingkreisen werden mit Messgeräten untersucht. Den Abschluss bilden Mehrphasensysteme: Drehstrom und nicht sinusförmige periodische Vorgänge.
Dieser dritte und letzte Band der Buchreihe Informatik ist der Theoretischen Informatik gewidmet. Nach einer allgemeinen Diskussion formaler Sprachen, deren Beschreibungen und Grenzfällen der Erkennbarkeit werden die regulären Sprachen behandelt, welche in der lexikalischen Defi nition von Programmiersprachen ihre wichtigste Anwendung finden sowie die kontextfreien Sprachen, mit denen man die Syntax von Programmiersprachen definiert. Aus theoretischer Sicht befriedigend ist die eindeutige Entsprechung zwischen Sprachbeschreibung und Spracherkennung - den regulären Sprachen entsprechen die endlichen Automaten und den kontextfreien Sprachen die Stackmaschinen. Weitere Stufen der Chomsky-Hierarchie werden nur kurz behandelt, da sie in der Praxis von geringerer Bedeutung sind. Stattdessen zeigt ein eigenes Kapitel zum Thema Compilerbau weitere Techniken auf, die aus einer Sprachbeschreibung einen Parser, also das komplette »front-end« eines Compilers, entstehen lassen. Der Begriff des »Algorithmus« wird anhand verschiedener Maschinenmodelle erklärt und bestätigt wird auch die Churchsche These, dass jede vernünftige Defi nition von »Berechenbarkeit« auf die gleiche Klasse von Funktionen führt. Die Grenzen des algorithmisch Machbaren werden anhand des Halteproblems und des Satzes von Rice klar abgesteckt. Das abschließende Kapitel zur Komplexitätstheorie erkundet unter den lösbaren Problemen die Grenze zwischen denen, die mit einem vertretbaren (polynomiellen) Aufwand lösbar sind und solchen, deren Lösung nicht wesentlich effi zienter ist, als ein systematisches Ausprobieren von Lösungskandidaten. Dieses Kapitel führt den Leser zu dem bekanntesten noch ungelösten Problem der Theoretischen Informatik: P = NP? Der erste Band der Informatik erklärt die grundlegenden Konzepte: Programmierung, Algorithmen und Datenstrukturen. Der zweite Band ist technischen Themen gewidmet - insbesondere der Rechnerarchitektur, Betriebssystemen, Rechnernetzen und speziell dem Internet. Das Buch richtet sich an alle Einsteiger, die sich ernsthaft mit Informatik beschäftigen wollen, sei es zum Selbststudium oder zur Begleitung von Vorlesungen. In den folgenden Bänden dieses Buches werden die Themen, Rechnerarchitektur, Betriebssysteme, Rechnernetze, Internet, Compilerbau und Theoretische Informatik vertieft. Prof. Dr. Heinz-Peter Gumm ist Professor für Theoretische Informatik in Marburg. Nach dem Studium in Darmstadt und Winnipeg (Kanada) von 1970 bis 1975 und der Habilitation 1981 folgten Professuren in Hawaii, Kalifornien und New York. Seine Forschungsgebiete sind Formale Methoden, Allgemeine Algebren und Coalgebren. Prof. Dr. Manfred Sommer ist emeritierter Professor für Praktische Informatik in Marburg. Nach dem Studium in Göttingen und München von 1964 bis 1969, war er Assistent am ersten Informatik-Institut in Deutschland an der TU München. Es folgten zehn Jahre bei Siemens in München und von 1984 bis 2014 war er Informatik-Professor in Marburg.
Abonner på vårt nyhetsbrev og få rabatter og inspirasjon til din neste leseopplevelse.
Ved å abonnere godtar du vår personvernerklæring.