Hallo zusammen,
habe ein größeres Clipper-Programm vor längerem erstellt und die Datenbanken unter dbase3+.
Möchte nun gerne wissen wieviel Datensätze man in den einzelnen
Datenbanken erstellen kann ohne das es Probleme gibt.
Danke im voraus für die Antwort.
Gruß aus Oberschwaben
angelo
Datensätze
Moderator: Moderatoren
- Manfred
- Foren-Administrator
- Beiträge: 21225
- Registriert: Di, 29. Nov 2005 16:58
- Wohnort: Kreis Wesel
- Hat sich bedankt: 210 Mal
- Danksagung erhalten: 71 Mal
Hi,
waren das nicht irgendwo 2 Milliarden pro DB, bzw. solange die DB dabei nicht über 2GB groß wurde?
waren das nicht irgendwo 2 Milliarden pro DB, bzw. solange die DB dabei nicht über 2GB groß wurde?
Gruß Manfred
Mitglied der XUG Osnabrück
Schatzmeister des Deutschsprachige Xbase-Entwickler e.V.
großer Fan des Xbaseentwicklerwiki https://wiki.xbaseentwickler.de/index.p ... Hauptseite
Doof kann man sein, man muß sich nur zu helfen wissen!!
Mitglied der XUG Osnabrück
Schatzmeister des Deutschsprachige Xbase-Entwickler e.V.
großer Fan des Xbaseentwicklerwiki https://wiki.xbaseentwickler.de/index.p ... Hauptseite
Doof kann man sein, man muß sich nur zu helfen wissen!!
- Jan
- Marvin
- Beiträge: 14662
- Registriert: Fr, 23. Sep 2005 18:23
- Wohnort: 49328 Melle
- Hat sich bedankt: 21 Mal
- Danksagung erhalten: 88 Mal
- Kontaktdaten:
Naja, kommt drauf an was man als Problem bezeichnet.
Rein theoretisch kann man vielleicht 2 Mrd. Datensätze verarbeiten (ich habe keine Ahnung wo die Grenze liegt). Aber will man sich das mit einer .dbf wirklich antun? Ich denke das wäre auch schon ein Problem. Mindestens ein Performanceproblem, denn .dbf ist dafür einfach nicht geschaffen. Ab ein paar Mio. ist meines Wissens Schluß.
Jan
Rein theoretisch kann man vielleicht 2 Mrd. Datensätze verarbeiten (ich habe keine Ahnung wo die Grenze liegt). Aber will man sich das mit einer .dbf wirklich antun? Ich denke das wäre auch schon ein Problem. Mindestens ein Performanceproblem, denn .dbf ist dafür einfach nicht geschaffen. Ab ein paar Mio. ist meines Wissens Schluß.
Jan
- Martin Altmann
- Foren-Administrator
- Beiträge: 16555
- Registriert: Fr, 23. Sep 2005 4:58
- Wohnort: Berlin
- Hat sich bedankt: 116 Mal
- Danksagung erhalten: 48 Mal
- Kontaktdaten:
Hallo Manfred,
letzteres.
Ausserdem gibt es noch Beschränkungen in der Anzahl der Felder (255? Kann das sein?) pro Datensatz.
Viele Grüße,
Martin
letzteres.
Ausserdem gibt es noch Beschränkungen in der Anzahl der Felder (255? Kann das sein?) pro Datensatz.
Viele Grüße,
Martin
Webseite mit XB2.NET und ausschließlich statischem Content in Form von HTML-Dateien: https://www.altem.de/
Webseite mit XB2.NET und ausschließlich dynamischem Content in Form von in-memory-HTML: https://meldungen.altem.de/
Mitglied der XUG Osnabrück
Vorsitzender des Deutschsprachige Xbase-Entwickler e. V.
- Manfred
- Foren-Administrator
- Beiträge: 21225
- Registriert: Di, 29. Nov 2005 16:58
- Wohnort: Kreis Wesel
- Hat sich bedankt: 210 Mal
- Danksagung erhalten: 71 Mal
Hi Martin,
255 unter Clipper stimmt.
@Jan
ich weiß auch nicht wo die Schmerzgrenze liegt, aber 2 Milliarden stand irgendwie mal in der Anleitung. Allerdings 1 Mio würde ich jetzt nicht als Maß der Dinge sehen, da sollten schon mehr drin sein.
255 unter Clipper stimmt.
@Jan
ich weiß auch nicht wo die Schmerzgrenze liegt, aber 2 Milliarden stand irgendwie mal in der Anleitung. Allerdings 1 Mio würde ich jetzt nicht als Maß der Dinge sehen, da sollten schon mehr drin sein.
Gruß Manfred
Mitglied der XUG Osnabrück
Schatzmeister des Deutschsprachige Xbase-Entwickler e.V.
großer Fan des Xbaseentwicklerwiki https://wiki.xbaseentwickler.de/index.p ... Hauptseite
Doof kann man sein, man muß sich nur zu helfen wissen!!
Mitglied der XUG Osnabrück
Schatzmeister des Deutschsprachige Xbase-Entwickler e.V.
großer Fan des Xbaseentwicklerwiki https://wiki.xbaseentwickler.de/index.p ... Hauptseite
Doof kann man sein, man muß sich nur zu helfen wissen!!
- brandelh
- Foren-Moderator
- Beiträge: 15707
- Registriert: Mo, 23. Jan 2006 20:54
- Wohnort: Germersheim
- Hat sich bedankt: 71 Mal
- Danksagung erhalten: 38 Mal
- Kontaktdaten:
Hallo,
DBF Dateien können wegen dem LOCK-Offsett nur 2 GB groß werden (Standardlocking nur 1 GB). Spätestens ab Clipper 5.x waren 1024 Byte per Record möglich, wodurch sich die maximale Anzahl von Datensätzen aus Satzlänge (plus 1) und Headerlänge abhängt.
Solange die Daten hauptsächlich von gelesen werden oder von wenigen Stationen bearbeitet werden sind große Dateien auch im Netzwerk kein Problem, aber wenn z.B. mehr als 20 (natürlich von Hardware und Netzwerk abhängig) im Akkord Datensätze ändern, anlegen und abfragen wird das Locking der Indexe zum Flaschenhals. Mit Autolocking kann man dann noch was rauskitzeln, aber jeder Netzwerkwackler oder Rechnerabsturz wird zur Katastrophe. Bei vielen Anwendern im Netzwerk sind SQL Datenbanken eindeutig die bessere Wahl.
Wir haben zwar auch etwa 20 bis 30 Anwender, die mit unseren Programmen permanent arbeiten, aber die Erfassung der Daten dauert hier Zeit (rechtliche Problematik, kein Massengeschäft), die Eingabefelder sind im RAM zwischengespeichert, sodass meist einige Minuten zwischen den einzelnen Speicherungen je Arbeitsplatz vergehen, so hat man keine Probleme.
DBF Dateien können wegen dem LOCK-Offsett nur 2 GB groß werden (Standardlocking nur 1 GB). Spätestens ab Clipper 5.x waren 1024 Byte per Record möglich, wodurch sich die maximale Anzahl von Datensätzen aus Satzlänge (plus 1) und Headerlänge abhängt.
Solange die Daten hauptsächlich von gelesen werden oder von wenigen Stationen bearbeitet werden sind große Dateien auch im Netzwerk kein Problem, aber wenn z.B. mehr als 20 (natürlich von Hardware und Netzwerk abhängig) im Akkord Datensätze ändern, anlegen und abfragen wird das Locking der Indexe zum Flaschenhals. Mit Autolocking kann man dann noch was rauskitzeln, aber jeder Netzwerkwackler oder Rechnerabsturz wird zur Katastrophe. Bei vielen Anwendern im Netzwerk sind SQL Datenbanken eindeutig die bessere Wahl.
Wir haben zwar auch etwa 20 bis 30 Anwender, die mit unseren Programmen permanent arbeiten, aber die Erfassung der Daten dauert hier Zeit (rechtliche Problematik, kein Massengeschäft), die Eingabefelder sind im RAM zwischengespeichert, sodass meist einige Minuten zwischen den einzelnen Speicherungen je Arbeitsplatz vergehen, so hat man keine Probleme.
Gruß
Hubert
Hubert