Észlelőrét

A Magyar Asztrofotósok Egyesületének galériája

NGC 6888

Lásd az első posztban.

Készítette

Csordás Péter

Optika

Celestron EdgeHd800

Kamera

Atik One6

Mechanika

EQ6

Helyszín

Budapest

Dátum

2016-08-24

Expozíciós adatok

Ha: 14x1200, O3:18x1200, RGB: 30x200 (minden bin2)

Hozzászólások

Balási Álmos

Az én tippem is az, hogy sokat csúzkázott a topaz denoiseAI és a gigapixelAi proramokkal, majd ezek eredményeit PS layerek segítségével összedolgozta az eredeti képpel. Ilyen formában nem lehet kizárni, hogy akár más fotókat vagy azok bizonyos elemeit is felhasználta. Ha korrekt lenne már rég közzé tette volna a nyerseket, de legalább is átadta volna egy astrobin értékelőnek.

Csordás Péter

Haha, full kreténbe :), én arra tippelek, a kettőt együtt tolta vmi csodálatos szinergiába (mármint deconv+Topaz).

Kiss Péter

Még egy aspektust megemlítenék. Az asztrofotók nagyon nagy részét lehet "ellenőrizni". Vagyis van valamilyen óriástávcsővel készült fotó, amivel össze lehet hasonlítani. Viszont van olyan is, amit nem. Szerintem tudtok olyan fotót csinálni, ami valamilyen szempontból jobb, mint kb bármi más az adott objektumról. Vagy tranziens objektum van rajta. Akár felfedezés reményében (lásd McNeil-köd), akár nem. Ezeknél azért nem mindegy, hogy mennyire áll biztos lábakon a fotó.
Halkan jegyzem meg, hogy alig várom már, hogy felfedezzetek valamit. Hogy valami újat mutassatok.

Feltóti Péter

Hát szerintem egyértelmű, hogy az APOD-os úr full kreténbe tolta a dekonvolúciót, amúgy ha elolvassátok a reakcióit az Astrobinen, akkor abból is érezhető, hogy egy végtelenül arrogáns és cinikus fickóról van szó, aki szarik a hitelességre és a jó ízlésre, legitimálja magát azzal, hogy APOD-ot "nyert" és onnantól ki is mondja, hogy nem érdekli, hogy kinek mi a kritikája felé. Tényleg minden lepereg róla. Itt szerintem nem is kell vele és a képével foglalkozni. Péter animációjából jól látszik, hogy a deconv baszta szét a képét és nem a TOPAZ. Ami pedig Péter fotóját illeti, szerintem is szép és értékelésre méltó. Én a GIF-ből is azt látom, hogy az eljárás leheletnyi intenzitás különbségeket talált meg, amik noha látszanak az eredeti képen, de nem szembetűnőek. De ha jól megnézzük, ott vannak ám, le vannak fotózva. Szerintem olyasmi történik a szoftverben, hogy valami sűrűség alapú klaszterezés beazonosítja ezeket a finom különbségeket és szétskálázza őket, ahogy mi is skálázzuk a képet. Eközben meg igyekszik a zajt is kezelni.
Próbálgattam különböző képeken és nagyon változó eredményt ad, van ahol szinte semmit sem csinál, van, ahol kb ugyan azt eredményezni, mint bármilyen más élesítés, és van ahol egész hasonlóan hatékony, mint Péternél. Nyilván nem triviális az alkalmazhatósága és Péter gondolom pöcsölt is vele rendesen, hogy hogy érdemes használni. Egy érdekes esetet találtam, egy fotómba nagyon alaposan bezoomolva találtam egy olyan kettős csillagot, ahol a két csillag függőleges dif tüskéje totál egybe esett, a két vízszintes meg egész kicsit láthatóan szét vált, de már annyira el voltak mosódva, hogy az elmosódó konturjaik teljese összeértek. Az élesítés viszont gyönyörűen szétválasztotta őket úgy, hogy a függőlegesekhez nem nyúlt. Ezzel csak arra akarok finoman utalni, hogy azt egészen biztosan lehet tudni, hogy a két, nem teljesen átfedő difftüske hogy nézne ki, ha a légkör nem mosná el a határukat, és ezt jól adta vissza az élesítés. Ebből azért talán feltételezhetjük, hogy hasonlóan jár el hasonló struktúrát mutató égi részletekkel is. De továbbra is elfogadom, hogy nem ismerjük a matekot, és fenntartásokkal kezeljük továbbra is.

Skumát László

Péter(ek), nekem a CsP kép jobban tetszett. Kicsit zajosabb, de sokkal részletgazdagabb, életszerű. A másik nagyon fröccsöntött műanyag. Ettől én nem félteném az asztrofotózást. (Persze lehet, hogy további játszadozással jobb eredményt is el lehet vele érni.)
A szoftverek kipróbálásával is egyetértek. Egyrészt már ennyi minta is tanulságos volt számomra, másrészt a legtöbb fizetős képmanipuláló szoftver (amit egyébként rendszeresen és elterjedten használnak) nem nyílt forráskódú, talán sose tudjuk elolvasni a kódjukat.

Balási Álmos

Feltöltöttem egy fotót, egy korábbi nagy kép kis részletének a feldolgozásával a topaz lab programokkal. Nem a tökéletesség volt a cél, csupán egy gyors változat, többnyire auto beállítással, és csupán a vita aláfestésére készült. Odafigyeléssel ennél sokkal többre képes. Link: https://magyarasztrofotosok.hu/eszleloret/?a=im&i=569 - (a kép nem publikus mások számára). Az eredeti kép mellé tettem fel, hogy könnyen össze lehessen hasonlítani.

Panyik Lénárd

Én is rápróbáltam a programra bár csak a zajszűrő és az élesítő részét néztem ,a zajszűrés hihetetlenül hatékony ahogy néztem beállításban nem sokban különbözik a Ps vagy Lr zajszűrésétől ugyanúgy állítható a részletek megtartása . Azt vettem észre, hogy sokkal kevésbé lesz festményszerű az eredmény mint más szűrökkel és talán több részletet is tart meg .

Csordás Péter

Bármilyen eljárás képes rossz adatokat bevinni, élesítés, zajcsökkentés, deconv, még a flatelés is, csak ezeket az effekteket már kiismertük, megvan a hiba mintája. Sztem ez a minta is kiismerhető lesz. Pl az APOD-ot jobban megnézve a deconv tipikus hibája tűnik fel, csak finomabb formában, a ködfoszlányok "elkígyósodnak" és részlet veszik el, új keletkezik. Én ezt próbáltam elkerülni, de láttam, hogy ha még tolom, kb mehet abba az irányba.

Felrakok két blink gifet, remélem működik a link, és vmi látszik is rajta.
APOD vs CSP: http://g.recordit.co/lUq8cz5COf.gif vagy itt
https://drive.google.com/file/d/1ou_R92s4BQLTq6JP2HNcbxe5_Ey2ca1O/view

CSP "nyers" vs kidolgozott: http://g.recordit.co/GWGPLKx99L.gif vagy itt
https://drive.google.com/file/d/1SRxtH6l9mLtjwOu1ILHj5hOMdL0CVH_j/view

Feltóti Péter

Értem Gábor az elvet. Egyet is értek azzal, - és ezt már többször le is írtam - hogy mindenképp meg kell ismerni, hogy milyen matematika van a szoftverben. Én el tudom képzelni, hogy érvényes matematika van alatta, de rendben, elfogadom, hogy amíg erről nem bizonyosodunk meg, addig nem lehet érvényesnek tekinteni az eredményét, fenntartásokkal kell kezelni, vagy ne is használjuk. Elfogadom!

Ettől függetlenül nem értem, hogy miért ne lehetne kipróbálni. Mivel egyelőre én nem tudom, hogy milyen matekot használ ez az adott szoftver, csak kipróbálni tudom. Ha kipróbálás közben egyértelműen összefirkálná a képemet, akkor nem is biztos, hogy érdekelne a matekja. Egyelőre én nem tudtam összefirkáltatni a képemet, nem rajzolt olyat a képemre, ami nem volt ott, vagy amiről ne ordítana, hogy artifaktum, azért javasoltam, hogy más is kísérletezzen vele. Nyilván örülnék annak, is ha valaki feltárná a működését, de mivel ez nem nyílt forráskódú szoftver, ez valszeg nem fog mostanában megtörténni.

De lépjünk kicsit hátrébb az adott problémától. Mit is csinálunk képfeldogozáskor? A mért adatainkat tisztítjuk és vizualizáljuk. Ha a hitelesség lenne az egyetlen cél, akkor exceltáblákat kéne posztolgatnunk. "Állat leejteni" azt jelenti, hogy szépen, látványosan, esztétikusan jelenítsük meg a mért és megtisztított adatainkat. A kettő pedig nem szabad, hogy kizárja egymást. Mindkettő fontos és része az asztrofotográfiának. Ne legyünk álszentek, mindenki belevisz a feldolgozásba szubjektív ítéletet. A dekonvolúciónál vagy a csillagkicsinyítésnél (akármennyire is ismert és elfogadott a matematikája), mindig ott van az artifakt is, a művelet "ára". Nem azt döntöd el, hogy vittél-e hibát a képbe (mert azt mindig viszel), hanem azt, hogy látszik-e a hiba, vagy sem. Ezt meg nem számolgatva döntjük el, hanem kipróbáljuk a műveletet és megnézzük az eredményét. Máshogy fogalmazva, tetszik-e a művelet eredménye, vagy nem. Ilyen formán senki fotója sem hiteles. Nem is tudjuk, mi az a hiteles, mivel csak közelíteni tudjuk a valóságot. Elvárás, hogy mindenki törekedjen a hiteles ábrázolásra, az is elvárás, hogy ehhez csak hiteles eszközöket használjon, ebben nincs közöttünk nézetkülönbség. De azért azt lássuk be, hogy a hitelességre való törekvés közben a vizuális, szubjektív értékítéletünket is használjuk, mert kénytelenek vagyunk használni. Így nem az a kérdés, hogy az asztrofotgráfiába szabad-e empirikus úton döntést hozni, ergó a tetszést faktorként a döntési rendszerbe bevonni, hanem az, hogy minek nevezzük azt, amikor ez ki van iktatva a rendszerből. Én azt észlelésnek nevezem, és nem fotográfiának.

Aztán tegyük hozzá azt is, hogy validált művelettel is lehet óriási hibát vinni egy fotóba, vagy segítségével a hiteles ábrázolást alárendelni az áll leejtésnek. Így az sem garancia semmire. Nincs olyan szoftver, ami rádszól, hogy azt úgy nem lehet csinálni. Így a hitelesség számomra nem műveletekkel definiálható, hanem személettel.
Ha mi a fejünk tetejére is állunk, ezek a szoftverek léteznek, és sokan használni fogják attól függetlenül, hogy mi itt mit gondolunk róla. És addig is, amíg nem születik konkrétan mondjuk a TOPAZ-ról konszenzus, addig mi a rosszabb? Ha valaki egy validált eszközzel a látványosság érdekében nyilvánvaló hamisítást visz egy fotóba, vagy az, ha valaki egy (számára nem ismert matematikával működő) szoftverrel egyébként ízléses, hitelességre törekvő, hihető, valóságot jól közelítő fotót készít?
És miért ne lehetne valakinek a célja az, hogy hitelesen áll leejtsen?

Tóth Gábor

Peti szerintem nagyon félreértettél. Az én felfogásomban egészen addig nem szabad gyakorlati oldalról megközelíteni egy algoritmust (legyen MI-nek nevezve vagy bármi másnak), amíg nem tudjuk hogy pontosan hogy mit és hogyan csinál. Ez pedig matek kérdés, ami szín tiszta elmélet. Csak akkor szabad/érdemes egy algoritmust a gyakorlatban nézegetni, próbálgatni, ha ez az alap megvan és tudjuk hogy nem viheti félre a képet (vagy tudjuk hogy milyen körülmények esetén viszi félre, és akkor el is tudjuk ezt kerülni.) Ezen elméleti megalapozottség hiányában viszont sosem lehetünk biztosak abban, hogy nem tesz a képre hamis részletet, ezért nem tekinthetünk egy ismeretlen (matematikai értelemben) algoritmuson átesett képet hitelesnek. Innentől kezdve pedig az asztrofotós feladata eldönteni hogy mi a célja: megőrizni a hitelességet, vagy állakat leejtetni, és természetesen a felelősség is az asztrofotósé, hogy a kép leírásában, adataiban ezt feltüntesse.

Feltóti Péter

Ha nem szerepelne a szoftver nevében az MI, akkor senkiben fel sem merülne, hogy berajzol nem lefotózott részleteket, vagy hogy Hubble képekről les le infót. Szerintem erről szó sincs, legalábbis az utóbbiról egészen biztosan nincs. Vegyük ketté a dolgot. Egyik általában az MI és a másik a Topaz.
Általában az MI esetén a határt ott kell meghúzni, amit Patrik ír, illetve amire én is utaltam az első hozzászólásomban: "Valószínűleg egyébként nem kategorikusan a statisztikai alapú döntéshozó szoftvereket kell tiltani, hanem azt az eljárást, ami "nem lefotózott" részletet tesz a képhez." Ami fizikailag nem lehet a képen, azt ne tegye oda semmi. Lászlóval én abban egyetértek, hogy nyitottnak kell lenni a fejlődő technológiára, mert az viszi előre a világot. Gáborral meg abban, hogy meg kell ismerni, érteni az új módszereket és a már bevált értékrend szerint kell megítélni.

Ami a Topazt illeti, kipróbáltam és nem látom, hogy nagyon durván be tudna avatkozni a kép részletességébe. Lehet, hogy valamit rosszul csináltam, de nekem nem rajzolt be plusz részletet, csak azt emelte ki, ami már eleve ott volt. Ami zavar, hogy AI-nak van nevezve, de közben csak két csúszka áll rendelkezésre, és igazából hamarabb kezd el artifaktokat termelni, minthogy leesne az állam. De az látszik, hogy lehet vele szépen élesíteni meglévő részleteket. Próbáljátok ki ti is, kíváncsi vagyok a tapasztalatotokra, csináljunk inkább egy gyakorlati vitát ebből, mint sem elméletit.
Péter, te hogy látod a saját fotódon, tett hozzá részletet a TOPAZ a képedhez, vagy eleve ilyen jó volt a felbontásod, csak kiemelted a mosott részleteket?

Skumát László

A dokumentálatlan beavatkozás problémájával én is egyet tudok érteni, pl. ad absurdum azonosítja az égterületet és a HST oldalról leszedett képpel módosítja. Viszont ez már nem arról szól, hogy MI vagy nem MI, hanem az adott szoftverről.

Tóth Gábor

Én Patrikkal értek maximálisan egyet ezzel kapcsolatban. Illetve konkrét aggályaim vannak a módszerrel kapcsolatban, nevezetesen az, hogy zárt forráskódú programról van szó, aminek nincs dokumentálva a működése kellő alapossággal. Innentől fogva nem lehet tudni, hogy amikor valami részletet berajzol a képbe, akkor azt mi alapján teszi, helyesen teszi-e, és hogy honnan lehet tudni, ha nem helyes az eredmény. Az a véletlen egybeesés, hogy a jelen kép és a HST képe között nagyfokú egyezés van, az nem alapoz meg semmit, ebből az egy adatból nem szabad extrapolálni, sőt több ilyen adatból sem. Amíg matematikailag nincs bebizonyítva hogy bizonyos feltételek teljesülése mellett valóban helyes eredményt ad, és ezek a feltételek nem ismertek, addig az ilyen képekre csak mint műalkotásokra lehet tekinteni szerintem, a hiteles asztrofotótól nagyon távol vannak.

Skumát László

Ha arra indulunk el, hogy mi a fotós érdeme és mi nem, az nagyon messzire vezethet. Ha valaki több milliós kamerát használ, amivel több nagyságrenddel kisebb zajjal, sokkal rövidebb idő alatt sokkal több nyerset tud lőni, akkor az így készült jó minőségű kép inkább a felszerelés érdeme, vagy a készítőé?
Kicsit az úszás hőskorára emlékeztet ez a lamentálás. Amikor 1844-ben egy londoni úszóversenyen az egyik indián versenyző az addig csak mellúszást ismerő angolokat faképnél hagyta, sokáig el se ismerték az eredményét, mert "nem úriember módjára" úszott, bár a partot ő érte el előbb... De aztán kreáltak egy kategóriát a mellúszásnak, meg egyet a "szabad stílusú" úszásnak, mert sehogy se lehetett letagadni, hogy úszott, ráadásul gyorsabban.
Szóval szerintem a technológia változik, mindig is változott. Ha nem örülünk neki, akkor is. És nem mellesleg ennek köszönhetjük mi is, hogy nem kell a vegyszerbe áztatás végét várni, amíg a filmen megláthatjuk, mit is sikerült megörökíteni.

Tarczi Patrik

Lehet érvelni az MI mellett vagy ellen, azonban ha olyan részleteket mutatsz meg amit 20cm-es tükörrel gyakorlatban nem lehet kifotózni, akkor az nem a fotós érdeme, hanem az algoritmusé. Csordás Petinek megfogalmazása tetszett amolyan digitális artwork. (ezzel nem ezt a fotót szeretném birálni, hanem bármely hasonló algoritmus használatát etikus fotográfiai célokra, legyen az asztro- vagy más) Ettől függetlenül én nagyon kiváncsian várom mit lehet vele kihozni pl. Topaz labs-el, mutassátok meg hogy ti mire juttok vele.

Feltóti Péter

Egyetértek Lászlóval, abszolút validnak tartom akár a MI használatát is, éppen azért, amit leírt. Annyit azért hozzátennék, hogy ez a cucc nem tanul. Egészen biztosan nem felügyelt tanulás alapú döntéshozó eljárás. Ez egy klasszifikáló algoritmus, ami egyfelől megállapítja, hogy melyik pixelt kell részletnek tekinteni és melyiket nem (ehhez nem kell tanító adatbázis, lentebb linkeltem két algoritmust is, a DBSCAN tipikusan nem felügyelt tanuló, az SVM-et meg lehet így is, úgy is használni). Másfelől pedig ha be vannak klasszifikálva a pixelek (melyik részlet és melyik nem), akkor már egyértelműen meg lehet mondani, hogy mi történjen velük. Épp ezért szerintem ez egy valid szoftver. Szerintem szabad használni. A neheze meg ott jön, amit Kiss Peti ír. Az algoritmus egy dolog, a többi meg az adatminőségen és a felhasználáson múlik.

Csordás Péter fotója szerintem meg nagyon fasza lett. Megkockáztatom, hogy nem a TOPAZ miatt jó, az csak hab a tortán. Szerintem ez anélkül is szuper jó lenne. Természetesen engem is érdekelne, hogy milyen lenne a bizonyos MI nélkül, ha erre lenne lehetőség, de megértem, ha nincs meg ez a verzió. Gondolom egészen korai szakaszban került alkalmazásra.

Kiss Péter

Amúgy az egyetemen a bonyolultabb statisztikai, adatelemezési módszereknél is az volt a nagy tanulság, hogy: Persze, léteznek a módszerek, akármilyen adathalmazon lehet őket alkalmazni, a gép ki fog dobni valamit. A lényegi rész azt megérteni, hogy lehet-e használni az adott módszert, hogyan, és azt megérteni, hogy az eredmény mit jelent.

Kiss Péter

Hát Laci, én is egymásra raktam ezt a fotót és a HST képet ( https://www.spacetelescope.org/images/opo0023a/ ), és igazad van, tényleg keresni kell az eltéréseket. Legalábbis a H-alfa részleteknél.

Kíváncsi lennék, hogy az MI(-nek nevezett) feldolgozási lépés mit tett hozzá ehhez a fotóhoz. Van olyan változat, amiből az, és lehetőleg csak az kimaradt? Érdekes lenne egymás mellett látni.

A flat, dark korrekció azért szerintem sokkal több, mint statisztikán alapuló képtorzítás. Igen egyszerű, és nagyon jól megalapozott matek illetve kézzelfogható fizika van mögötte, nem pusztán statisztika. Nem becsmérelném ezzel a pusztán statisztikai módszereket. Én is foglalkoztam nemlineáris idősor-analízissel az egyetemen. Sajnos nem követem a területet, és a neuron-hálós algoritmusokkal sincsen tapasztalatom. De kíváncsi vagyok.

Skumát László

A flatek, darkok használata is egyfajta statisztikán alapuló képtorzítás. Ezek használata után se azt fogja mutatni a kép, amit az érzékelő felvett, hanem más időben felvett képekkel módosított változatot, ami nagy valószínűséggel mégis jobban hasonlít a "valódi" képhez, mint a beavatkozás nélküli. Az MI sem csinál mást (ha jól programozták), mint valamilyen tapasztalatok alapján valószínűleg a "valódi" képhez hasonlítóra korrigálja. Csak ezt hatékonyabban csinálja, mint az eddigi szokásos képfeldolgozók. Megcsinál olyan beavatkozásokat, amik a korábbi feldolgozások alapján hasznosak. Ahogy azt mi is megtennénk a tapasztalatok alapján. Amire aztán scriptet írunk, vagy a szoftverek fejlesztői teszik bele, mint új feature. Szóval az MI azt csinálja meg, amit mi is megcsinálnánk, ha elég tapasztalatot gyűjtenénk, csak az MI hatékonyabban, gyorsabban eléri. Szoftverfejlesztőlént ezért úgy gondolom arról vitatkozni, hogy szabad-e MI-t használni képfeldolgozáshoz vagy sem, elég értelmetlen, hiszen a kérdés visszavezethető oda, hogy szabad-e szoftvert használni képfeldolgozáshoz, legfeljebb a felhasználható szoftver bonyolultságán lehet vitatkozni, ahhoz meg sok sikert.

Csordás Péter

@Péter, amit az MI-ról írsz, arról nincs sok fogalmam, de figyelmesen olvasom :)
Viszont a "kritikus, hitelességre törekvő hozzáállás" sztem nagyon jó megfogalmazás, és itt tud elcsúszni a dolog. Ha vkinél hiányzik pár év tapasztalat, vmi látásmód kialakulása, és kézbe kap egy ilyen eszközt, az olyan mint gépfegyvert exportálni a kökorszakba. Sztem a mostani APODos is vmi ilyenen hasalt el, az Astrobinen azóta részben le is tiltották.

Feltóti Péter

Azért tettem fel a kérdést, hogy mit nevezünk MI-nek, mert a szó misztikus, kiválóan alkalmas arra, hogy felkeltse az érdeklődést, meg hogy modernnek, újszerűnek hasson. Viszont a modern adattudományon és a többváltozós statisztikai modellezésen belül, amit újabban MI-nek hívnak, sem minden fekete doboz. Van az a tény, hogy az adatainkból kiolvasható információkon kívül vannak rejtett, adatok összefüggéséből kinyerhető plusz infók, ismeretek. A feldolgozás során mi jelenleg nagyjából átlagot számolunk meg mediánt, és úgy próbáljuk közelíteni a valós állapotot. Ezen kívűl még esetleg vizsgáljuk egy egy adott pixel környezetét, és annak átlagából próbálunk valamit leszűrni a pixelre vonatkozóan. Azonban vannak olyan matematikai többváltozós, statisztikai eljárások, amikkel elég jó közelítéssel ki lehet nyerni ezeket a rejtett információkat. Ha az üzleti élettől az orvos diagnosztikáig működik, akkor itt miért ne működne? Ezekhez az eljárásokhoz nem kell feltétlenül tanító adatbázis sem, teljesen más elven működnek, mint a neurális hálók. Pl: DBSCAN: https://en.wikipedia.org/wiki/DBSCAN, SVM: https://en.wikipedia.org/wiki/Support_vector_machine

Így mielőtt ítéletet hozunk, meg kell ismerni, meg kell érteni ezeket az eljárásokat. Egyébként meg itt is igaz, hogy ezek az algoritmusok akkor működnek jól, ha kellően tiszta és jó minőségű az adathalmaz alattuk, és helyesen vannak paraméterezve. Tehát a jó nyersanyag és a kritikus, hitelességre törekvő hozzáállás ugyan úgy kelleni fog továbbra is.

Csordás Péter

Laci, igen érdekes, biztos vannak nagytávcsöves teljes köd fotók is majd én is keresek egyet. Azt azért hozzátenném, hogy ennek a technikának is vannak szabályai, pl. h minél kevésbé feldolgozott legyen a kép, de egy korrekt deconvval, ill azt észrevettem, h a csillagokat nagyon szét tudja szedni, és ezt nem könnyű elkerülni, ezen kívül pedig az egyéb feldolgozási lépéseket ugyanúgy gondosan meg kell csinálni, szóval így sincs kevesebb munka a képpel (inkább több) ahhoz hogy egy élvezhető végeredmény jöjjön ki.

Francsics László

Azért hadd piszkáljam a kedélyeket. Rákerestem a HST fotójára, ami a jobboldali kinyúló ágaskodó területet ábrázolja, és azt kell mondanom, hogy szinte minden a helyén van, még olyan apró részletek is, amit képtelenség 20 centis csővel felbontani.
Az algoritmus nagyon "érezte" hogy meddig lehet elmenni, és gyakorlatilag nem tett a képbe olyat, ami nincs ott a valóságban, miközben a nyersképen valószínűleg nem volt értékelhető nyoma. Vagyis nem csupán belerajzolt szépen.
Ez elgondolkoztató!

Kiss Péter

Bocs, kis porszem került a gépezetbe. Én írtam az előbbi hozzászólást (rajzos Peti).

Kiss Peter

Tudományos csillagászati fotóknál a feldolgozás nagyjából kimerül a flat, dark, bias korrekcióval. Esetleg PSF illesztés-levonás. RGB kép sem keletkezik. Bár lemaradtam jópár éve. Akkor is inkább csak belekóstoltam.
Nagyon érdekes a téma, még így is, hogy kb nem fotózok. Kétségtelenül szemet gyönyörködtető ez a kép. De így, hogy egy fekete doboz belerajzolgatott úgy, hogy az nekem szép legyen, nem-igen tudok rá asztrofotóként tekinteni.

Csordás Péter

Igen, ahogy Álmos is írta, egészen pontosan a Topaz élesítő eljárásáról van szó. Nekem is valami olyasmi jutott eszembe, hogy ezek már nem asztrofotók lesznek, csak vmi digitális artworkok, asztrofotó alapján. Ha vki ilyet akar csinálni, persze lehet, tetszhet is sokaknak, de én remélem, hogy komolyabb fórumok, akár az APOD, nem "szopják be" előbb-utóbb. Amúgy látom előnyét is, biztos a mértéken van a hangsúly, végülis bármilyen eljárás túlhajszolásával el lehet barmolni a képet, csak ahogy Laci is írta, itt ez a kvázi részletezettség nagyon megtévesztő, és jónak látszik. És Péterre reagálva, sztem is a fő probléma, h pl egy decovval ellentétben, itt fogalmunk sincs mi történik, vmi alapján be lett tanítva, bár az is lehet h még asztróra is lehet optimalizálni.

Balási Álmos

Feltételezésem szerint Péter a Topaz Labs és ehhez hasonló szoftverekre gondolt. (https://topazlabs.com/) Ezeket már nagyon sokan használják. Érdekessége, hogy a fotóművészet terén nagyon gyakran és sokan használják és senki nem is várja el, hogy ezt fel is tüntessék. Ott a fotó, mint művészeti termék jelenik meg és bármit lehet eszközként használni. Szerintem hamarosan külön fog válni különböző ágazatokra az asztrofotózás is, lesz majd művészi asztrofotó, lesz tudományos asztrofotó, stb. A kérdés igazán az, hogy ki mit követ és mit mivel hasonlítunk össze. A PixInsight tudományos alapokon közelít, míg a MI-t használó szoftverek, - mint ahogy írtad is - elsősorban statisztikai adatokra építenek, vagyis mások kitűnő munkáját is felhasználják egy-egy adott folyamatban. Nem vagyok meggyőződve, hogy a nagy asztrofotós portálok nem értékesítik a feltöltött fotókat, vagy hogy nem használják a weben elérhető fotókat hasonló célokra. Némely esetben ezt nem is nagyon titkolják. Érdemes az apró betűs dolgokat is elolvasni, amennyiben valakit izgat ez a dolog. Ami a Photoshop filterekkel kapcsolatos kérdésedet illeti, szerintem igen, az is sok esetben MI vagy MI-re épülő plugin.

Feltóti Péter

Nagyon érdekes, izgalmas és közben kényelmetlen érzés az MI megjelenése az asztrofotózásban. Több kérdés is felmerült bennem, a teljesség igénye és kifejtés nélkül ezek jutottak eszembe:

Amit Mesterséges Intelligenciának hívunk, az valójában statisztikai alapú döntéshozatal tanuló adatbázis, tanuló eljárás és kiértékelés felhasználásával. Klasszikusan a deep learning neurális hálókat szokás MI-nek hívni, de hasonló eljárások léteznek nem neurális háló alapon is. Például ilyenek a támaszvektor gépek (suppoert vector machine-ek), amiket digitális fotógráfiában már régóta használnak pl zajszűrésre. Kiválóan alkalmasak a statisztikai értelemben vett outlier detekcióra, illetve sűrűség alapú klaszterezésre, ami a fotókra vetítve zaj és struktúra detekcióra használható, így élesítésre és zajszűrésre. A PhotoShopnak vannak ilyen filterei. Ez is MI. Illetve kérdezem, hogy ez is MI?

Innen jön a kérdés, hogy mit nevezünk MI-nek, és hogy ennél a konkrét esetnél milyen eljárást használtál Péter. Ez Pixiinsight funkció? Vagy egy kölön szoftver? Ez egyébként is érdekelne, kíváncsi vagyok rá, már csak azért is, hogy fel tudjuk ismerni a linkelt esetekhez hasonló képeket. Én eddig csak olyan felhasználással találkoztam, ahol egy neur háló felismerte a csillagokat és bepredikált a helyükre adatot a környezetük alapján. A csillagos és csillagtalan kép különbségét pedig csillag kijelölő maszként lehet használni. Ebben én nem érzek etikátlanságot, mert nem a predikált adatot mutatom meg infóként, csak kijelöléshez használom.

Valószínűleg egyébként nem kategorikusan a statisztikai alapú döntéshozó szftvereket kell tilatani, hanem azt az eljárást, ami "nem lefotózott" részletet tesz a képhez. A kihívás valószínűleg az lesz, hogy eldöntsük, mi az ami nincs már lefotózva. Ugyanis általában ezek a döntések úgy működnek, hogy minden lehetséges kimenetre ad egy valószínűséget a szoftver. Az pedig rajtunk múlik (paraméterezésen, tanításon, visszacsatoláson), hogy mennyire vagyunk megengedőek.

Közben meg ott van a másik oldal, hogy a prediktív modellezésnek, a szoftveres döntéstámogatásnak a létjogosultságát az adja, hogy stabil matematika van alattuk, és a gyakorlatban is jól működnek. Emiatt illene azt feltételezni, hogy amit a egy MI prediktál, az a valóságban is úgy van, úgy lesz. Ez azonban már nem fotográfia. Ez data science, és adatvizualizáció. Ráadásul a datascience-en belül a neur háló kakukktojás, mert a lényegéből fakadóan nem lehet tudni, hogy mi történik benne, nem lehet tudni, hogy mire tanul rá, ás fel lehet használni arra, hogy a valóságtól teljesen elrugaszkodjon, és a zajszűrés, élesítés helyett konkrétan rajzoljon. Számos olyan tanulmány készült, hogy megtanítottak neur hálónak különböző festményeket egy adott festőtől, és a neur háló elkezdett az ő stílusában festeni. Na ezt szerintem teljes mértékben kívül kell tartani a jelenlegi asztrofotózás keretein.

Balási Álmos

Egyetértek a Laci véleményével! Közben letöltöttem a próbaverziókat és tologattam a csuszkákat. Hát ez egy érdekes terület, teljesen új dimenziót ad a feldolgozáshoz. Amit viszont már az elsőre tapasztaltam, hogy kis méretű fájlokkal elég gyorsan boldogul, de egy nagy felbontású tif azért nagyon feladja a leckét, igen csak sokáig dolgozik vele. Viszont az eredmény az hihetetlen jó tudd lenni.

Francsics László

Ez roppant érdekes, először látok ilyet szemtől szemben. Nem tudtam miről van szó, csak néztem a részleteket a képen, és nem tudtam őket hova tenni. Jónak tűntek, de valahogy mégsem egészen igazinak. Szóval itt tartunk, ilyen eszközeink is vannak, mint az MI. Szerintem nem az eszközzel van szokás szerint a gond (ha van), hanem azzal ahogyan használják. Biztos, hogy lehet nagyon okosan használni bizonyos képfeldolgozási mozzanatok kezelésére, de közben nem érdemes túltolni sem, ahogy semmilyen más szűrőt sem.
Köszi a felvetést, izgalmas kérdéseket vet fel.

Balási Álmos

Én azt látom és tapasztalom, hogy már nagyon sokan használják például a zajcsökkentéshez, de kiváló lehet a maszkoláshoz is. Felkeltetted az érdeklődésemet, biztosan ki fogom próbálni. Sajnos lassan a MI megkerülhetetlen lesz az élet legtöbb területén, ha nem akarunk lemaradni. Valaki használja itthon ezeket a szoftvereket? Ha igen, érdekes lenne hallani a véleményét.

Csordás Péter

Egy a napokban lett APOD kép viharokat kavart a nemzetközi asztrofotós társadalomban (https://apod.nasa.gov/apod/ap201017.html). Két fronton zajlik a vita, egyrészt a sajnos néha felmerülő plagizálás gyanúja miatt, másrészt pedig az MI (AI) szoftverek alkalmazása ürügyén.

Az elsőt illetőleg ahogy olvasgattam a fórumokat, egyértelmű bizonyítást nem talált senki, bár a kép metaadatai (expóhossz, felszerelés) nagyon errefele terelik a gyanút. Ezzel igazából nem kívánnék itt foglalkozni, csak megemlítem mint érdekességet.

Viszont a második felkeltette a figyelmemet, hogy mit tudok kihozni MI-vel egy saját, korábbi képemből ugyan erről a témáról. Az újra feldolgozott képemet nézegetve megértem felzúdulás, a szoftver nagyon hatékonyan fel tudja javítani a részleteket, már-már “túl” hatékonyan. Függetlenül attól, hogy az én vagy az ő képem mennyire jó, összehasonlítva őket eléggé hasonló jegyeket lehet felfedezni, vagyis ez utóbbi kérdés hogy használt-e MI-t, nekem egyértelmű igen.

Gondoltam feldobom itt is ezt a témát, hátha érdekes, ebben a felhős időben :)