Was ist der Unterschied zwischen Computational Science und Data Science? [geschlossen]


9

Hintergrund: Meine Promotion war in 'Computational Science'. Meine Dissertation befasste sich mit der Analyse von Röntgenbeugungsdaten und der Analyse von thermisch gestörten Kernen in der dynamischen Gesamtanalyse der molekularen Elektronendichte für die Festkörperphysik. Das wegnehmen? Es war sehr wissenschaftlich fundiert.

Meiner Meinung nach ist Computational Science das Streben nach Wissenschaft, "... ein systematisches Unternehmen, das Wissen in Form von überprüfbaren Erklärungen und Vorhersagen über das Universum aufbaut und organisiert" ( Wiki ).

Die meisten Positionen für 'Data Science' scheinen jedoch eher 'Data Analysis'-Jobs zu sein. Das heißt, umfangreiche SQL-Abfragen, bei denen vorgefertigte R- und Python-Modelle (lineare Regression usw.) verwendet werden, um aus strukturierten und unstrukturierten Daten Schlussfolgerungen zu ziehen.

Ist Computational Science eine Obermenge von Data Science? Sind sie austauschbar? Ist Data Science eine tatsächliche "Wissenschaft"? Ist Computational Science eine tatsächliche "Wissenschaft"?


Ich denke, dass die Frage einen gewissen Wert hat, aber Sie müssten sie ein wenig ausarbeiten. Dieser Entwurf eines Berichts in CSE könnte nützlich sein. Sie haben einige Erwähnung über die Beziehung zwischen den beiden. Sie könnten irgendwie an eine Beziehung denken, die der zwischen experimenteller und theoretischer Wissenschaft ähnelt.
Nicoguaro

Antworten:


10

Sie sind nicht austauschbar.

  • Computerwissenschaft bezieht sich eher auf HPC, Simulationstechniken (Differentialgleichungen, Molekulardynamik usw.) und wird üblicherweise als wissenschaftliches Rechnen bezeichnet.

  • Data Science bezieht sich in der Regel auf rechenintensive Datenanalysen wie "Big Data", Bioinformatik, maschinelles Lernen (Optimierung), Bayes'sche Analysen mit MCMC usw. Ich denke, es ist dasselbe wie das, was früher als Computerstatistik bezeichnet wurde. Es war die Infusion von Informatik mit Statistik, aber viele der entwickelten Techniken ließen die strengen "statistischen Tests" der Fischer (Clustering, Kreuzvalidierungstechniken, Datenvisualisierung) fallen, behielten aber den Datenteil bei.

Die klarste Erklärung dafür kam mir, als ich einen Workshop über Julia für Data Science und Scientific Computing unterrichtete. Die Datenwissenschaftler wollten Julia kennenlernen, um eine schnelle "Big Data" -Analyse durchzuführen, dh Regressionen und andere GLMs für Big Data. Die Computerwissenschaftler (wissenschaftliche Computer?) Wollten wissen, wie man einfach Code schreibt, um große lineare Systeme auf HPCs und GPUs zu lösen.

Beachten Sie, dass dies zwei Möglichkeiten sind, genau dieselben Berechnungen zu sagen, jedoch mit sehr unterschiedlichen Bedeutungen. In gewissem Sinne ähnlich, aber immer noch unterschiedlich (und es gibt Überschneidungen zwischen den Disziplinen, wie das maschinelle Lernen, um Parameter für PDEs aus Daten zu lernen).

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.