You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Hi,
warum wird eigentlich in dem Tool auf den WebClient für den CSV Download verwiesen? Warum kann man nicht den von der Plattform generierten nehmen. Eigentlich müsste doch das der gleiche Inhalt sein. Das zusammenfriemeln der CSV ist sehr anfällig für manuelle Fehler. Der Export aus der Plattform hat die 250 Zeilen Datensatzbegrenzung nicht.
Altrnativ, wäre es möglich, dass man statt einer einzelnen CSV einen Ordner voller CSVs als Input nehmen kann und das Tool kümmert sich daraum daraus einen validen Datensatz zu bauen wobei Duplikate z.B. in den Exports automatisch entfernt werden.
The text was updated successfully, but these errors were encountered:
Das Format ist leider ein anderes, das aktuelle Skript arbeitet nur mit Daten aus der Weboberfläche.
Man kann auf der Kommandozeile auch mehrere csv-Dateien angeben, das funktioniert für mich bereits.
Duplikate können nicht so einfach entfernt werden, es können in der CSV-Datei immer doppelte Zeilen vorkommen,
es gibt keine eindeutige Vorgangsnummer, die mit gespeichert wird.
Das neue Format ist nun unterstützt. Ich konnte mal alle Transaktionen mit einem einzelnen Download
herunterladen. Damit sollte man nun die Auswertung gut hinbekommen.
Falls nochmal neue Rückmeldungen aufkommen, bitte nochmal einen neuen Request aufmachen.
Hi,
warum wird eigentlich in dem Tool auf den WebClient für den CSV Download verwiesen? Warum kann man nicht den von der Plattform generierten nehmen. Eigentlich müsste doch das der gleiche Inhalt sein. Das zusammenfriemeln der CSV ist sehr anfällig für manuelle Fehler. Der Export aus der Plattform hat die 250 Zeilen Datensatzbegrenzung nicht.
Altrnativ, wäre es möglich, dass man statt einer einzelnen CSV einen Ordner voller CSVs als Input nehmen kann und das Tool kümmert sich daraum daraus einen validen Datensatz zu bauen wobei Duplikate z.B. in den Exports automatisch entfernt werden.
The text was updated successfully, but these errors were encountered: