Wie kann eine Kamera mit hoher Auflösung von Bedeutung sein, wenn die Ausgabe eine niedrige Auflösung hat?


17

Die Frage ist von dieser Frage inspiriert , die diese Bilder zeigt .
Die akzeptierte Antwort legt nahe, dass diese Bilder mit einer 8x10-Ansichtskamera aufgenommen wurden und die Verwendung einer 8x10-Kamera in den Kommentaren bestätigt wurde.

Meine Frage ist: Wie kannst du das sagen?


Bei Anzeige auf der Webseite sind diese Bilder 496 x 620 = 0,37 Megapixel (oder 720 x 900 = 0,65 Megapixel, wenn Sie auf "Vollansicht" klicken).
Daher sollte jede Kamera mit einer Auflösung von mehr als 0,37 Mpx in der Lage sein, diese Bilder aufzunehmen, was so ziemlich jedes Smartphone und jede Webcam auf dem Markt bedeutet.

Ich kenne Bayer-Sensoren . Der schlimmste Effekt eines Bayer-Sensors sollte jedoch darin bestehen, die Auflösung um den Faktor vier zu verringern: Wenn Sie das Bild in jeder Richtung um den Faktor zwei verkleinern, enthält jedes Ausgabepixel Daten von mindestens einem Eingabesensor für jeden von die R / G / B-Kanäle.
Eine Verkleinerung um den Faktor 4 bedeutet immer noch, dass keine Kamera mit einer Auflösung von mehr als 1,5 Mpx (anstelle der 0,37 Mpx der Ausgabe) diese Bilder aufnehmen kann. Wir sprechen immer noch über so ziemlich jedes Smartphone und die meisten Webcams auf dem Markt.

Ich kenne mich mit Farbtiefe aus . Aber JPG, das Format, in dem wir diese Bilder anzeigen, ist 8x3 = 24 Bit. Den DxOMark-Ergebnissen zufolge gibt es mehrere Kameras, darunter die Sony NEX 7 und die Nikon D3200, die 24 Bit Farbe aufnehmen können.
Selbst wenn eine 10-Dollar-Webcam die Nuancen in diesen Bildern nicht vollständig erfassen kann, sollte dies mit einer NEX 7 oder D3200 möglich sein.

Ich weiß, dass die meisten Objektive eine geringere Auflösung haben als die meisten Sensoren. Das Nikkor 85 mm 1: 1,4 G ist laut DxOMark das schärfste Objektiv von Nikon und entspricht im besten Fall einer Auflösung von 19 Mpx bei einer 24 Mpx-Kamera (der Vollbild-Nikon D3X), während das Objektiv mit der geringsten Schärfe eine hat Best-Case-Äquivalent von 8Mpx auf derselben Kamera.
Das schlechteste Objektiv in seiner Datenbank bietet jedoch immer noch eine um eine Größenordnung höhere Auflösung als das Ausgabeformat dieser Beispiele.

Ich kenne mich mit Dynamik aus. Diese Bilder steuern jedoch die Beleuchtung, sodass sie weder die Glanzlichter wehen noch die Schatten verlieren. Solange Sie dazu in der Lage sind, spielt der Dynamikumfang keine Rolle. es wird auf jeden Fall auf den Ausgabebereich von 0-255 von JPG abgebildet.
In beiden Fällen haben laut DxOMark mehrere Kameras mit Vollbild- oder kleineren Sensoren einen besseren Dynamikbereich als die besten Mittelformatkameras.


Das ist, was ich weiß, und nichts in diesen theoretischen Fragmenten kann mir sagen, wie es möglich ist, eine 8x10-Ansichtskamera von einer Sony NEX 7 zu unterscheiden, wenn Sie das Ergebnis als 0,37-Mpx-JPG anzeigen.

Soweit ich weiß, sollte es im Wesentlichen unerheblich sein, wie viele Megapixel und wie viel Farbtiefe der Sensor erfassen kann, solange es mindestens so viel ist, wie das Ausgabeformat darstellen kann.

Trotzdem bezweifle ich nicht, dass Stan Rogers eine Antwort gegeben hat. Und ich habe noch nie etwas Ähnliches in Bezug auf die wahrgenommene Schärfe von Kameras mit kleinen Sensoren gesehen.

Habe ich falsch verstanden, was Auflösung bedeutet?

Ich frage mich vor allem nach der Theorie: Wie kann ein Unterschied zwischen zwei Auflösungen (gemessen in Pixel, Lp / mm, Farbtiefe oder was auch immer) in einem Anzeigeformat sichtbar sein, das eine geringere Auflösung aufweist als eines der Originale?

Oder anders ausgedrückt: Gibt es irgendetwas, das mich im Prinzip daran hindert, diese Bilder mit einer Sony NEX 7 und einer Beleuchtung im Wert von 10.000 US-Dollar pixelgenau zu reproduzieren?


2
Solange Sie alles perfekt machen, hat das Aufnehmen von RAW über JPEG auch keinen großen Vorteil. Bei Auflösung, Bittiefe und RAW-Daten geht es darum, das Beste aus Ihrem Foto herauszuholen! Heute kleines Webfoto, morgen 4x Retina-Display oder hochwertiger Druck.
Henrik

1
Leider kann ich nur eine Antwort annehmen. Matt Grum argumentiert glaubwürdig, dass ein kleiner Sensor plus Beleuchtung und ein wenig Nachbearbeitung vielleicht 95% dessen reproduzieren kann, was wir auf den Martin Schoeller-Bildern in Webgröße sehen (ohne die DoF-Effekte). Ich denke, Michael Nielsen macht ein glaubwürdiges Argument, dass Sie möglicherweise eine bessere als die typische APS-C-Systemauflösung benötigen, um auf 100% zu kommen. Und Stan Rogers erklärt, wie wir eine Großformatkamera auch bei Fotos im Webformat erkennen können. Ich schlage vor, Sie lesen sie alle :)
jg-faustus

Antworten:


10

Es geht nur um den Mikrokontrast. Schauen Sie sich die Beiträge zu aps-c im Vergleich zum Vollbild an und erweitern Sie diesen Unterschied auf Mittel- und Großformatsensoren.

Wann sind die Unterschiede zwischen APS-C und Vollbildsensoren von Bedeutung und warum?

Nach den Überabtastungstheorien ist es besser, von Anfang an mit einer höheren Rate und dann mit einer niedrigeren abzutasten als an der Nyquist-Grenze - d. H. Wenn Ihr Endziel 640 x 480 ist, ist es immer noch besser, einen 1280 x 960-Sensor als einen 640 x 480-Sensor zu verwenden.

Es spielt keine Rolle, wie viele MPixel Sie haben, wenn benachbarte Pixel voneinander abhängig sind, da der Verwirrungskreis größer ist als Ihre Pixel auf der Sensorebene. Die Objektive sind ebenfalls nur eingeschränkt auflösbar. Darüber hinaus müssen Sie die "Schärfe" des Objektivs im Verhältnis zu seiner Blende berücksichtigen. Ein größerer Sensor ermöglicht es Ihnen, näher heranzukommen und einen engeren DOF-Wert einzustellen, wodurch Sie noch mehr Details erfassen können weniger Verbreitung usw.

Und dann haben Sie die "Tiefenkompression" durch die Brennweite des Objektivs, die bei diesen Aufnahmen ziemlich aggressiv ist und auf ein Teleobjektiv zeigt. Das Sichtfeld eines kleinen Sensors würde erfordern, dass Sie einen langen Schritt zurücktreten und die Blende viel öffnen, um diesen schmalen DOF zu erhalten. Unter Berücksichtigung der Zahlen würde F8 mit einer Vollformatkamera (210 mm, 2 m Abstand) einen DOF von 4 cm und ein FOV ergeben, das genau das Gesicht wie diese Aufnahmen erfasst.

Anders ausgedrückt: Je größer der Sensor im Verhältnis zum Motiv ist, desto weniger muss das Objektiv auf die Lichtstrahlen einwirken, um sie auf einen engen Punkt zu komprimieren. Dies erhöht die Schärfe der Aufnahme und zeigt unabhängig vom Betrachtungsabstand (was durch Ändern der Bildgröße auf eine niedrigere Auflösung simuliert wird).

Die folgenden Diskussionen über Detailverbesserung und Beibehaltung durch Größenänderung geben einen Vergleich, wenn ähnliche Themen Großformat vs. Vollbild und Großformat vs. Apsc behandelt werden:

Oben: männliche Gesichter mit Bartstummeln. In der Auflösung auf der Site, auf die Sie verlinken, wird der Bart mit pixelweiten Haaren gerendert, aber alles, was verloren geht, hat dieselbe Größe wie in Matts Beispiel. Jetzt sind die Bärte diffus. Wenn wir Matts Bild in der gleichen Größe wie die 8x10-Fotos auf der Website sehen, sehen wir möglicherweise einen großen Unterschied, wenn der Kopf nicht scharf ist. Sogar ein APS-C-System und ein kleinerer Sensor könnten dieses Ergebnis liefern (in Bezug auf Details).

Unten: Vergleichen wir die weiblichen Wimpern in der gleichen Größe wie auf der Webseite, die Sie gezeigt haben, mit einem fokussierten Auge einer APS-C-Kamera, und durch das Schärfen werden die Poren in der Haut nicht zurückgebracht. Wir könnten die Wahrnehmung der Wimpern auf Kosten eines hellen Heiligenscheines verbessern.

Wir sehen jetzt einen enormen Auflösungsunterschied "Gesamtsystem" , und die verwendete apsc-Kamera + das verwendete Objektiv + kann bei der angegebenen niedrigen Auflösung nicht das gleiche Detail wiedergeben wie die 8x10-Kamera + das Objektiv + die angezeigte Auflösung . Hoffe, mein Punkt ist jetzt klarer.

Einzelheiten

Ein weiterer Vergleich zu APS-C, Bartstummel, nachdem sie geschärft wurden. Obwohl Stackexchange ihre Größe ändert, können wir dennoch einen Unterschied in der Klarheit feststellen.

apsc

Zusammenfassend sind die anderen Faktoren, nach denen Sie fragen, außer der Pixelauflösung:

  • Gesamtsystemauflösung lp / mm
  • SNR
  • Vergrößerung von der Person über den Sensor bis zum Bildschirm, auf dem Sie ihn in der angegebenen Entfernung von der Projektion Ihres Auges auf die Netzhautauflösung betrachten - je kleiner die Vergrößerung (unter 1: 1) eines Teils des Systems ist, desto höher sind die Anforderungen für die beiden oben genannten Faktoren, die wiederum durch die kleinere Projektionsfläche negativ beeinflusst werden.

Bei einer verkleinerten Makroaufnahme erhalten Sie mehr Details als bei einer ersten Makroaufnahme.

Ein letzter Beweis, dass die Auflösung vor dem Verkleinern wichtig ist. Oben: 21MP FF Unten: 15MP Aps-c mit derselben Objektiv- / Blendenbrennweite.

Zwei diff sensor res / größe

Jetzt auf gleiche Auflösung skaliert:

Klein

Kleiner

Kleinste

Winzig

und etwas geschärft, um einige Details wiederzugeben. Was siehst du? Ein bisschen mehr Details von der 21-Megapixel-FF-Kamera bei gleicher Größe / Auflösung, was bis zu einer 3-Megapixel-Kamera äquivalent wäre. Sie können die Linien im neu skalierten Bild nicht zählen, aber die Wahrnehmung, dass es sich um Linien handelt, ist wahr. Ob Sie dies wollen oder nicht, ist Ihre kreative Wahl, aber ab der höheren Auflösung (die vom Gesamtsystem vorgegeben wird) haben Sie die Wahl. Wenn Sie sie nicht möchten, können Sie das Bild verwischen, bevor Sie es neu skalieren.

Ein letztes Experiment, um den Unterschied zwischen einem kleinen Sensor mit niedriger Auflösung und einem größeren Sensor mit höherer Auflösung zu zeigen, der jedoch auf dieselbe Auflösung skaliert und geschärft wurde, wurde am Ende mit der GLEICHEN GRÖSSE gezeigt - mit ALL ELSE EQUAL. Cool, was? Wie habe ich das gemacht? Mit meiner APS-C-Kamera simuliere ich einen "Erntesensor" (kleiner als meine APC-C), indem ich ein Bild aus dem Bild herausschneide. Dann gehe ich näher an das Motiv heran, um einen 4x größeren Sensor mit demselben Motiv zu füllen. - wie die Porträts auf einem großformatigen Sensor im Grunde genommen eine Makroaufnahme sind - viel näher heran als mit einer Aps-C-Kamera. Gleiche Elektronikqualität, gleiches Objektiv, gleiche Einstellungen, gleiches Licht.

So sieht es auf dem kleinen Sensor aus, nennen wir es "mini aps-cc":

Kleiner Sensor

Hier sehen wir das "Großformat" (großes volles APS-C):

aps-c

Hier sehen wir jede Menge Details, oder? Aber das spielt keine Rolle, nachdem wir das Bild auf 0,016 Megapixel verkleinert und für den gleichen Kontrast scharf gestellt haben, oder?

Vergleich gleich groß

Aber in der Tat tun wir das! Wenn du mir immer noch nicht glaubst, gebe ich auf :)


Eine Anmerkung zum Labyrinthmuster, das diese Kulturen anzeigen: Es ist das für AHD-Layer-Demosaicking übliche Layer-Interpolationsartefakt.
Michael Nielsen

Die Wahrnehmung, dass es sich um ein Array von Linien handelt, ist jedoch originalgetreuer als eine graue Box. Genauso wie man Poren in der Haut sieht, vielleicht nicht die exakte Menge wie im wirklichen Leben, aber sie wären da.
Michael Nielsen

Danke, interessante Vergleiche. Es sieht so aus, als ob Schärfe / Detail (oder zumindest eine Illusion von Detail) eine stärkere Verkleinerung überlebt, als ich dachte. Sie haben mir etwas zu überlegen gegeben.
jg-faustus

Denken Sie daran, dass das Konvergieren von Linien ein Albtraum für Interpolationsalgorithmen ist und wir wissen, wie es aussehen SOLLTE. Wir haben nicht die gleichen Annahmen bezüglich der Details in einer schönen Hautstruktur, sodass sich ein Punkt sogar um ein halbes Pixel in dem Gesicht bewegt, das er noch sieht genial. Im kleinsten Beispiel oben sehen wir immer noch, dass es Linien bis zur zweiten Vertikalen hat.
Michael Nielsen

Michael, eine verwandte Frage - was ist, wenn die Sensorgröße gleich ist? Werde ich bessere Ergebnisse mit einem APS-C-Sensor mit einer nativen Auflösung von 16 MP erzielen, der jedoch auf 8 MP heruntergerechnet wurde, anstatt eine (hypothetische) Kamera mit einem 8 MP-ASP-C-Sensor zu kaufen?
Vaddadi Kartick

7

Wie auch immer, die Kamera hat eine extrem geringe Schärfentiefe, die nicht parallel zur Filmebene ist. Das Scharfstellen von Lippen und Augen in mehreren Bildern mit der Körperhaltung des Motivs und dem sehr flachen DoF (so oft wie nicht, die Stirn im Kieferbereich unmittelbar unter den Augen ist weich) ist ohne Neigung nicht möglich.

Es gibt auch die Art der unscharfen Bereiche; Dies ist eher typisch für eine Wiedergabe in Lebensgröße als für eine ferne Fokussierung. Die DoF-Erweiterung in Richtung der Kamera entspricht nahezu der Erweiterung in Richtung des Hintergrunds. Dies ist genau das, was Sie erwarten würden, wenn Sie sich einer 1: 1-Reproduktion nähern. Bei normaleren Arbeitsabständen würden Sie eine Schärfeverteilung von etwa einem Drittel / zwei Dritteln um die Schärfeebene herum erwarten (ein Drittel des DoF vor der Schärfeebene; zwei Drittel dahinter). Das deutet also auf einen "Sensor" hin, der erheblich größer ist als APS-C, Vollbild oder sogar Mittelformat. Die Erfahrung mit den Formaten 4x5 und 8x10 hat gezeigt, dass es sich mit größerer Wahrscheinlichkeit um eine 8x10 handelt (obwohl auch eine der seltenen Kameras mit größerem Format nicht in Frage gekommen wäre), und ich hielt das 210-mm-Objektiv für wahrscheinlicher als sagen,

Wie Michael Nielsen betonte, sind in den Bildern viele "Mikrokontraste" zu sehen, aber bis zu einem gewissen Grad können Sie dies bei der Nachbearbeitung vortäuschen, insbesondere wenn das Rendern in Webby-Größen angestrebt wird. Und ich nehme an, Sie könnten sogar DoF und Fokalebene fälschen, wenn Sie eine Tiefenkarte mit einer Gradientenfokalebene erstellen würden, die mit einem 3D-Modell des Objekts verglichen werden müsste, und die Fokusdynamik einer 8x10 bei verstehen etwa 50-60% der Reproduktion in Originalgröße, aber das wäre eine Menge Arbeit. Die wirtschaftliche Lösung, sowohl für den Fotografen als auch für jeden, der das Bild analysiert, wäre eine tatsächliche 8x10-Kamera.


Eine Erhöhung des Mikrokontrasts in der Post führt jedoch zu Artefakten, und die Algorithmen "erraten" die Details, sodass es nicht dasselbe Bild ist.
Michael Nielsen

@Michael aber in einer verkleinerten Reproduktion könnten die für alle Zwecke nicht ersichtlich sein? Oder nicht?
Francesco

War "bis zu einem gewissen Grad" mehrdeutig?

Meinen Sie, wenn Sie zuerst schärfen und dann die Größe ändern, wo die Verbesserung verwischt wird, es sei denn, das Fenster des Hochpassfilters ist so groß, dass es über den Rahmen klingelt? Die Details in diesen Porträts sind so unglaublich, dass es bei Betrachtung eines Hautausschnitts von 1 x 50 Pixel wie ein Binärbild aussieht, das leicht Haloringe mit Schärfungsfiltern erzeugen kann.
Michael Nielsen

3
@MichaelNielsen Wenn Sie ein großes Downsample durchführen, können Sie ein Aliasing in ein total weiches Bild einfügen (ohne jeglichen Mikrokontrast) und ein äußerst scharf aussehendes Bild ohne Lichthöfe oder andere schärfende Artefakte erhalten. Ohne die geneigte Fokusebene könnten Sie nicht sagen, dass diese Bilder großformatig sind, wenn Sie sich die offensichtlichen "Details"
ansehen

4

Nein, eine hochauflösende Kamera spielt wirklich keine Rolle, wenn die Ausgabe eine niedrige Auflösung hat, zumindest nicht, wenn Sie von zweistelligen Megapixeln auf ein Viertel von einem Megapixel absteigen. Nehmen Sie das folgende Bild auf:

Für das Web in der Größe angepasst, sieht es gut aus, obwohl das Gesicht des Motivs nicht einmal scharf gestellt war! Es ist offensichtlich, wenn es zu 100% angezeigt und gedruckt wird, aber Sie können es zum Zeitpunkt der Änderung der Größe auf 2% der ursprünglichen Pixel, die für das Web geschärft wurden, absolut nicht erkennen.

Hier ist ein weiteres Beispiel für ein äußerst weiches Originalbild mit etwa 8 Megapixeln:

Starkes Downsampling auf eine webfreundliche Auflösung, Schärfen und plötzliches Betrachten des gesamten Mikrokontrasts!

Ein 2x-Oversampling hilft definitiv bei der Auflösung und Farbtreue von Bayer-Bildern. Ein Bild des ursprünglichen Canon Digital Rebel (300D), das 2003 in einer Größe von 600 x 400 veröffentlicht wurde, ist jedoch ein 5-faches Oversampling. In jeder Richtung bedeutet dies, dass jedes Pixel im verkleinerten Bild die Stelle von 25 Originalpixeln einnimmt. Sehr, sehr wenig von der Qualität dieser 25 Pixel wird sich auf die Größe des Bildes auswirken.

Der erhöhte Mikrokontrast, den ein System mit größerem Format bietet, ist einfach nicht sichtbar. Der Makrokontrast, den Sie sehen, kann durch Nachbearbeitung ausgeglichen werden, wenn Sie so viel Auflösung haben, um die schärfenden Artefakte wegzuwerfen, dass sie nicht sichtbar sind.

Wenn Sie die Schärfentiefe angleichen, ist es äußerst schwierig, den Unterschied zwischen einer 10x8-Ansichtskamera und einer Kompaktkamera zu erkennen, wenn die Größe auf weniger als 1 Megapixel geändert wird.


Kann ich sein Gesicht in der Größe der Porträts sehen?
Michael Nielsen

ja wenn ich nach hause komme und die originalen ausgrabe!
Matt Grum

Ich muss der stumpfen Aussage widersprechen, dass "eine hochauflösende Kamera wirklich keine Rolle spielt, wenn die Ausgabe eine niedrige Auflösung hat". Überabtastung und Vergrößerungsverhältnisse spielen bei den Endergebnissen eine Rolle (bis zu einem bestimmten Grenzwert).
Michael Nielsen

1
Sie erhalten nette Details in dem kleinen Bild, weil Sie so oft überabgetastet haben. Wenn Sie nur 2x Oversampling mit der gleichen Menge an Unschärfe verwendet hätten, hätten Sie keine der Hautdetails erhalten. Und du hast es mit Schärfen übertrieben, sein Haar sieht komisch aus. Darüber hinaus sieht diese Aufnahme wie ein typisches Low-End-Bild aus. nichts wie die Bilder, von denen wir sprechen, die mehr Details enthalten, als ein APS-C-System mit einem anständigen Objektiv erzeugen kann.
Michael Nielsen

Dank des neuesten Beispiels erscheint es glaubwürdig, dass so etwas wie die in der Frage verknüpften Bilder mit einem APS-C-Sensor erstellt werden könnten. @MichaelNielsen Aber das ist die Art von Überabtastung, um die es in der Frage geht, z. Kann also in Bezug auf Überabtastung z. B. 7x (49 Pixel Eingabe zu 1 Pixel Ausgabe) Überabtastung sichtbar besser sein als 5x Überabtastung? Ich neige zu "wahrscheinlich nicht", in Ihrem Beispiel mit den Linien kann ich nicht viel / keinen Unterschied über 4x Oversampling sehen.
jg-faustus

1

Beim Rendern einer Szene mit feinen Details in ein Bild mit niedriger Auflösung muss eine räumliche Filterung angewendet werden, um alle Inhalte zu entfernen, deren Häufigkeit über der Nyquist-Grenze liegt. Bei der Anwendung der räumlichen Filterung gibt es zwei widersprüchliche Ziele:

  1. Inhalte, deren räumliche Frequenz niedrig genug ist, um angezeigt zu werden, sollten so wenig wie möglich gedämpft werden.

  2. Inhalte, deren Ortsfrequenzen ähnlich sind, sollten in etwa gleich stark gedämpft werden.

Stellen Sie sich eine Szene mit einem Muster aus konvergierenden Linien vor, um zu sehen, wo die Ziele in Konflikt stehen. Wenn der Abstand etwas nahe an der Nyquist-Grenze für die Zielauflösung liegt, die Linien jedoch immer so weit voneinander entfernt sind, dass sie klar dargestellt werden können, ist es oft besser, sie klar darzustellen, als sie zu verwischen. Wenn die Szene jedoch ein Muster aus konvergierenden Linien enthält, die zu nahe kommen, um unterscheidbar zu sein, würden die Linien allmählich unschärfer, wenn sich ihr Abstand der Auflösungsgrenze nähert, weniger ablenken, als wenn die Linien deutlich bis zu einem Punkt erscheinen würden, an dem sie sichtbar sind Scharfer Übergang zu einem festen Grau.

In vielen Fällen hängt die optimale Art der Filterung für eine Szene vom Inhalt ab und davon, welche Aspekte davon von Interesse sind. Wenn Sie eine Szene mit einer höheren Auflösung als dem vorgesehenen Ausgabeformat aufnehmen , bleiben alle im endgültigen Bild möglicherweise gewünschten Informationen erhalten . Informationen müssen herausgefiltert werden, bevor das Bild in einer niedrigeren Auflösung gerendert werden kann. Die hochauflösende Erfassung ermöglicht es jedoch, die genauen Filtermethoden so anzupassen, dass sie den Anforderungen der Szene optimal entsprechen (und möglicherweise unterschiedliche Methoden für unterschiedliche verwenden) Teile einer Szene). Wenn Sie beabsichtigen, ein endgültiges Bild mit einer Auflösung von 640 x 480 zu rendern, ist der Vorteil der Erfassung mit einer Auflösung von 6400 x 4800 wahrscheinlich nicht viel größer als der von 1600 x 1200, aber es kann einige Vorteile mit einer Vergrößerung auf das 2,5-fache geben.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.