Zeige Ergebnis 1 bis 6 von 6
  1. #1
    Community-Forum Benutzerbild von Benrath
    Registriert seit
    Mai 2003
    Beiträge
    16.246
    Likes
    1627

    logisches vs. physisches Datenmodell

    Kann mir da jemand genau den Zusammenhang bzw. den Unterschied erklären.

    Also ich habe es so verstanden, dass das logische erst mal nur abstrakt alle Bezüge und Zusammenhänge darstellt und das physische dann die genaue Syntax für das Datenbanksystem darstellt. Soviel von Wikipedia.


    Brauch ich das logische Datenbankmodell dann nur einmal am Anfang und sobald einmal ein physisches erstellt wurde, arbeite ich nur noch an dem Weiter, wenn z.B. neue Felder oder Blöck in meine DB sollen?

    Macht es dann Sinn mir zu viele Gedanken zum logischen zu machen oder sollte ich dann nicht eher beim pysischen drauf achten, dass auch das rauskommt was ich mir vorgestellt hatte? Ob z.B. die alten Daten auch wirklich in die Datenbank passen?
    "Wenn ihr nicht wisst wovon ihr redet, sprecht von einem System."


    "Wenn jeder an sich denkt, ist an alle gedacht !"

    "wollen wollen ist die höchste Form der Unterdrückung"


  2. #2
    Tippspielmeister 2012
    Tippspielmeister 2019
    Benutzerbild von parats'
    Registriert seit
    Mai 2003
    Ort
    Hamburg
    Beiträge
    13.966
    Likes
    369
    Logische Datemodelle beschreiben eigentlich Entitäten, Beziehungen und Attribute. Je genauer man dort arbeitet, desto eher erkennt man auch Fehler vor der Implementierung. Die Überführung in die physische Struktur ist dann ein Teil des physischen Datenmodells, allerdings kommen dann noch Aspekte wie bspw. Indizes zur Optimierung oder Regeln zur Datenintegrität etc pp.

    Wenn Du ein Datenmodell von Grund auf entwirfst, macht es schon Sinn einmal vorher alles zu modellieren. Vor allem bekommt man ein Gefühl für seine Datenstrukturen.

    Ob diese Reihenfolge konsequent befolgt werden sollte, hängt vom Umfang ab. Wir machen es hier nicht immer, einfach weil das Datewarehouse als ganzes Modell später richtiung molap, rolap uns tabular nochmal separieren und dort dann recht modular arbeiten. Relational ist das aber sinnlos bei 100+ Entitäten (+ 500-700 durch die tieferen Schichten) und 500TB Volumen.

  3. #3
    Community-Forum Benutzerbild von Benrath
    Registriert seit
    Mai 2003
    Beiträge
    16.246
    Likes
    1627
    Ok ich schwanke halt ein bisschen gerade, ob sich das bei unserer Datenmenge so sehr gelohnt hat ein logisches Datenmodell zu erstellen oder ich einfach unsere Excel in die Datenbank geschmissen hätte und dann irgendwie verknüpft hätte.

    Von einem Data Warehouse träume ich noch lange.

    Was ist genau eine Entität für dich?
    "Wenn ihr nicht wisst wovon ihr redet, sprecht von einem System."


    "Wenn jeder an sich denkt, ist an alle gedacht !"

    "wollen wollen ist die höchste Form der Unterdrückung"

  4. #4
    Tippspielmeister 2012
    Tippspielmeister 2019
    Benutzerbild von parats'
    Registriert seit
    Mai 2003
    Ort
    Hamburg
    Beiträge
    13.966
    Likes
    369
    Bezogen auf die Modellierung von Daten eindeutige Objekte wie Dimensionen (mit sub typen wie rel/bridge Tabellen, SCD1/SCD2 Konstrukten) und Fakten.
    Am Ende sollten sich relational Referenzen zwischen Entitäten bilden lassen.

    Ein Datawarehouse ist in vielen Fällen nicht des Rätsels Lösung, je nach Anforderung reichen einfache Silo-Lösungen.
    Interessant wird es dann, wenn ein Unternehmen anfängt sein komplettes Berichtswesen soweit zu zentralisieren, dass es einen single point of truth gibt.
    1887

  5. #5
    Community-Forum Benutzerbild von Benrath
    Registriert seit
    Mai 2003
    Beiträge
    16.246
    Likes
    1627
    wenn ihr jetzt jemand wärt der ein physisches Datenmodell von einem Berater abnehmen darf. Auf was würdet ihr besonders achten?

    Ich glaub das logisches hatte jetzt so wie es war Sinn gemacht und wo möglich generelle Klasse definiert etc..
    Mir ist halt noch unklar wie ich das physisches Modell validieren soll außer, dass meine Daten die jetzt in einer n x k Excel Matrix liegen auch ins Modell passen.
    "Wenn ihr nicht wisst wovon ihr redet, sprecht von einem System."


    "Wenn jeder an sich denkt, ist an alle gedacht !"

    "wollen wollen ist die höchste Form der Unterdrückung"

  6. #6
    Tippspielmeister 2012
    Tippspielmeister 2019
    Benutzerbild von parats'
    Registriert seit
    Mai 2003
    Ort
    Hamburg
    Beiträge
    13.966
    Likes
    369
    Normalerweise müsstest ihr anfangen das Datenmodell zu füllen um die Erkenntnis zu erlangen, ob die Umsetzung bzw die Planung davor korrekt war.
    Entwicklung am Reißbrett funktioniert nur bedingt, denn vieles hängt dann von der Ausgestaltung der Daten selbst ab und wie eben modelliert worden ist.
    Ich behaupte mal frech, dass Datenmodelle selten im ersten Schritt zu 100% passen, dafür sind zu viele unbekannte Variablen vorhanden. Wichtig ist, dass man sich das Modell von Anfang an nicht verbaut und möglichst offen an die Aufgabe herangeht.


    Vielleicht ein kleines Beispiel - es macht Sinn bei einer Attribuierung von Fakten auf eine Junk-Dimension (mittels Kreuzprodukt der Attribute) zu setzen, wenn beispielsweise Probleme mit dem Bufferlimit (ETL-seitig) vorliegen oder aber später auf eine multidimensionale Hierarchie (bspw mit MOLAP) gesetzt wird. Es gibt noch diverse andere Gründe, diese sind aber wohl am untechnischten und sowas ist dir bei der Reißbrettplanung nur bedingt klar.
    Geändert von parats' (06. Februar 2020 um 10:39 Uhr)
    1887

Forumregeln

  • Es ist dir nicht erlaubt, neue Themen zu verfassen.
  • Es ist dir nicht erlaubt, auf Beiträge zu antworten.
  • Es ist dir nicht erlaubt, Anhänge hochzuladen.
  • Es ist dir nicht erlaubt, deine Beiträge zu bearbeiten.
  •