Taasko vaihtuu rosessorit?

mäskileipä

Uskaltaako uutta maccia ostaa, 2006 tuli intelit ja nyt niistä ollaan taas luopumassa.

https://www.tivi.fi/Kaikki_uutiset/applen-raju-suunnitelma-iso-mullistus-tulossa-2020-6716131

54

889

    Vastaukset

    Anonyymi (Kirjaudu / Rekisteröidy)
    5000
    • kolme_vuotta_maksimi

      Oliko se kolme vuotta koneen käyttöikä applella ja sen jälkeen ei enää tueta

      • mäskileipä

        No mun Macbook Air on parin kuukauden päästä 6 vuotta vanha ja edelleen pelittää hyvin, vaikka tosin herjailee että akku vetelee viimeisiään. Ajatellut että voisihan tuon vanhan koneen päästää jo eläkkeelle.


      • Bersel
        mäskileipä kirjoitti:

        No mun Macbook Air on parin kuukauden päästä 6 vuotta vanha ja edelleen pelittää hyvin, vaikka tosin herjailee että akku vetelee viimeisiään. Ajatellut että voisihan tuon vanhan koneen päästää jo eläkkeelle.

        6 vuotta voi Apple-maailmassa olla vanha, niissä kun prosessorit, muistimäärät ja muut mitoitetaan minimin mukaan, ellei halua maksaa tuntuvaa lisähintaa. PC-puolella pärjää pidemmälle, kunhan hankkiutuu bloatwaresta eroon ja ei sokeudu asentamaan kaikenmaailman roskaohjelmia, vaikka tarjontaa on valtavasti. Toki niistäkin pääsee uudelleenasennuksella eroon, mutta jotkut luulee että kone on jotenkin mekaanisesti hidastunut :)


    • Joopssss

      Ei ne applen omat prossut ihan heti intelliä syrjäytä, varmaan aikaisintaan joskus kolmen vuoden päästä. Eikä prossujen vaihtuminen tarkoita sitä, että intellin prossujen tuki loppuisi kuin seinään.

      Ja älä välitä tuosta trollista. Ei se koneen tukiaika kolmessa vuodessa pääty.

      • Applella on pitkät perinteet prosessorin arkkitehtuurin vaihtamiselle. 6502 -> Motorola -> PowerPC -> IA32 -> AMD64 ja nyt seuraavaksi nähtävästi oma ARM.

        Apple on huolehtinut siitä, että vaikka uusi arkkitehtuuri tulee niin eihän ne koneet heti vanhene, että tuleehan niihin päivityksiä ja ei se ohjelmiinkaan vaikuta.

        Toki kaikki on ajastettua ja kokomusperäisesti Applen macOS laitteet on ajastettu kestämään noin 6-8v. Sitten vaan ostetaan uusi tietokone.


      • hullukaan-osta
        M-Kar kirjoitti:

        Applella on pitkät perinteet prosessorin arkkitehtuurin vaihtamiselle. 6502 -> Motorola -> PowerPC -> IA32 -> AMD64 ja nyt seuraavaksi nähtävästi oma ARM.

        Apple on huolehtinut siitä, että vaikka uusi arkkitehtuuri tulee niin eihän ne koneet heti vanhene, että tuleehan niihin päivityksiä ja ei se ohjelmiinkaan vaikuta.

        Toki kaikki on ajastettua ja kokomusperäisesti Applen macOS laitteet on ajastettu kestämään noin 6-8v. Sitten vaan ostetaan uusi tietokone.

        Eli ei osteta, sillä kukapa niitä ostaisi.


    • Taidan olla vanha kun tuntuu ettei siitä ollut kovinkaan paljon aikaa kun Apple näki mitä tapahtui PowerPC:n kanssa.

      En kyllä epäile ettei Applen prosessorit olisivat todella hyviä esimerkiksi ultra-kevyisiin kannettaviin mutta ainakaan historiallisesti ne eivät ole olleet tehohirmuja verrattuna esimerkiksi Intelin (tai AMD:n) erikoisosaamiseen. Toisaalta paljon suuremmalla virranotolla.

      Joskin se saattaa antaa Applelle mahdollisuuden myydä tuotteita jotka oikeasti ovat erilaisia kuin muiden valmistajien tuotteet joka tietysti *saattaa* auttaa kilpailusta eriytymisessä.

      • tuossanoin

        Nykyään tilanne on kuitenkin hivenen toinen. Apple nättäisi oikeasti onnistuneen järjestelmäpiirien kehityksessä ja esimerkiksi Applen kalliimmissa tableteissa käyttämä A10X kilpailee jo ihan oikeasti samassa teholuokassa kuin Intellin mobiilisuorittimet, joskin pienemmällä virrankulutuksella. Joillakin osa-alueilla Applen mobiilisuorittimet jopa peittoavat monet Intellin suorittimet:

        https://forums.macrumors.com/threads/a10x-is-a-monster.2049237/


      • steve_jobs

        Steve Jobs onnistui pettämään vielä neljännen kerran ja jätti kehittäjät taas oman onnensa nojaan


      • "En kyllä epäile ettei Applen prosessorit olisivat todella hyviä esimerkiksi ultra-kevyisiin kannettaviin mutta ainakaan historiallisesti ne eivät ole olleet tehohirmuja verrattuna esimerkiksi Intelin (tai AMD:n) erikoisosaamiseen. Toisaalta paljon suuremmalla virranotolla."

        Ei Apple yritä tehdä tehokkaita koneita vaan tehdä koneista mahdollisimman litteitä.

        Ihan järkevää kun ei päätelaitteessa tarvitse olla enempää tehoja kuin mitä käyttöliittymän ajaminen ja edustaprosessointi vaatii. Jos sitä tehoa tarvitsee suuria määriä niin saa sitä ostaa rautaa räkkiin niin paljon kuin haluaa. Eihän se päätelaitteeseen kuulu.

        Semmoinen huomio vaan, että eihän tietokoneissa suorituskyky ole ollut mikään ongelma että mitäpä sillä vaivata.


      • steve_jobs kirjoitti:

        Steve Jobs onnistui pettämään vielä neljännen kerran ja jätti kehittäjät taas oman onnensa nojaan

        Kuinka niin? Ei prosessori vaikuta oikeastaan mitenkään ohjelmistokehityksessä.


      • tuossanoin kirjoitti:

        Nykyään tilanne on kuitenkin hivenen toinen. Apple nättäisi oikeasti onnistuneen järjestelmäpiirien kehityksessä ja esimerkiksi Applen kalliimmissa tableteissa käyttämä A10X kilpailee jo ihan oikeasti samassa teholuokassa kuin Intellin mobiilisuorittimet, joskin pienemmällä virrankulutuksella. Joillakin osa-alueilla Applen mobiilisuorittimet jopa peittoavat monet Intellin suorittimet:

        https://forums.macrumors.com/threads/a10x-is-a-monster.2049237/

        Tällä hetkellä jopa A11 Bionic-prosessori kilpailee vasta Intelin U-sarjan ultravähän kuluttavien kanssa ja on samalla tasolla kuin keskitason toisen sukupolven (2000-sarja) i7-mobiiliprosessorin kanssa. Eli vaikka he ovat edenneet tehossa, se on kaikkein suurin heikkous tämän hetken prosessoreissa. :)

        https://www.notebookcheck.net/Apple-A11-Bionic-SoC-Benchmarks-and-Specs.250986.0.html


      • M-Kar kirjoitti:

        "En kyllä epäile ettei Applen prosessorit olisivat todella hyviä esimerkiksi ultra-kevyisiin kannettaviin mutta ainakaan historiallisesti ne eivät ole olleet tehohirmuja verrattuna esimerkiksi Intelin (tai AMD:n) erikoisosaamiseen. Toisaalta paljon suuremmalla virranotolla."

        Ei Apple yritä tehdä tehokkaita koneita vaan tehdä koneista mahdollisimman litteitä.

        Ihan järkevää kun ei päätelaitteessa tarvitse olla enempää tehoja kuin mitä käyttöliittymän ajaminen ja edustaprosessointi vaatii. Jos sitä tehoa tarvitsee suuria määriä niin saa sitä ostaa rautaa räkkiin niin paljon kuin haluaa. Eihän se päätelaitteeseen kuulu.

        Semmoinen huomio vaan, että eihän tietokoneissa suorituskyky ole ollut mikään ongelma että mitäpä sillä vaivata.

        Mahdollisimman litteisiin tietokoneisiin Applen prosessorit sopivat täydellisesti :)

        Lähinnä mietin asiaa siltä kannalta että mitä tapahtuu Macbook Pro ja Mac Pro-sarjaisten tietokoneiden kanssa. Suuri osa ammattilaisista ei ole vaihtamassa serveriin vaikka se kuinka olisi teknisesti parempi ratkaisu.

        Joten näen lähinnä kolme mahdollisuutta siihen mitä Apple on miettinyt:

        A) Jätetään tehokkaammat tietokoneet ja esim. graafiseen suunnitteluun ja 3D-mallinnukseen käytettävät koneet kokonaan Wintelille
        B) Apple aikoo ylläpitää kahta versiota MacOS:ista, yksi AMD64 ja toinen nykyisten mobiilisirujen jatkajille
        C) Apple uskoo pystyvänsä kehittämään Inteliä ja AMD:tä tehokkaamman prosessorin konetehoja vaativiin tehtäviin

        Saattaa olla että missasin jotain, jos missasin toivon että kerrot mitä :)
        Joskin näistä vaihtoehdoista jotenkin todennäköisimmältä vaikuttaa kolmas vaihtoehto, vaikkakin en ole ihan varma miten realistista se on Applen kannalta.


      • Oudoksuva kirjoitti:

        Mahdollisimman litteisiin tietokoneisiin Applen prosessorit sopivat täydellisesti :)

        Lähinnä mietin asiaa siltä kannalta että mitä tapahtuu Macbook Pro ja Mac Pro-sarjaisten tietokoneiden kanssa. Suuri osa ammattilaisista ei ole vaihtamassa serveriin vaikka se kuinka olisi teknisesti parempi ratkaisu.

        Joten näen lähinnä kolme mahdollisuutta siihen mitä Apple on miettinyt:

        A) Jätetään tehokkaammat tietokoneet ja esim. graafiseen suunnitteluun ja 3D-mallinnukseen käytettävät koneet kokonaan Wintelille
        B) Apple aikoo ylläpitää kahta versiota MacOS:ista, yksi AMD64 ja toinen nykyisten mobiilisirujen jatkajille
        C) Apple uskoo pystyvänsä kehittämään Inteliä ja AMD:tä tehokkaamman prosessorin konetehoja vaativiin tehtäviin

        Saattaa olla että missasin jotain, jos missasin toivon että kerrot mitä :)
        Joskin näistä vaihtoehdoista jotenkin todennäköisimmältä vaikuttaa kolmas vaihtoehto, vaikkakin en ole ihan varma miten realistista se on Applen kannalta.

        "Lähinnä mietin asiaa siltä kannalta että mitä tapahtuu Macbook Pro ja Mac Pro-sarjaisten tietokoneiden kanssa. Suuri osa ammattilaisista ei ole vaihtamassa serveriin vaikka se kuinka olisi teknisesti parempi ratkaisu."

        Palvelimet olleet yleisiä 90-luvun alusta saakka. Sitä aiemmin oli tyyliin pankeissa ja vakuutusyhtiöissä.

        Ei siinä palvelimessa ole mitään kummallista, nykyään sitä tehoa saa vieläpä ostettua kätevästi pilvestä käytön mukaan. Riittäisikö 512 teraa muistia? 80000 GPU corea? Kliks kliks vaan.

        "A) Jätetään tehokkaammat tietokoneet ja esim. graafiseen suunnitteluun ja 3D-mallinnukseen käytettävät koneet kokonaan Wintelille"

        Ei tarvitse. 3D-mallinnus ei vaadi paljoa.

        "B) Apple aikoo ylläpitää kahta versiota MacOS:ista, yksi AMD64 ja toinen nykyisten mobiilisirujen jatkajille"

        Ei tarvitse kun voivat ARM:lla hoitaa kaiken. Saavat itseasiassa yhtenäistettyä iOS:n kanssa kätevästi.

        "C) Apple uskoo pystyvänsä kehittämään Inteliä ja AMD:tä tehokkaamman prosessorin konetehoja vaativiin tehtäviin"

        Mikä käyttöliittymä tarvitsee niitä konetehoja?


      • M-Kar kirjoitti:

        "Lähinnä mietin asiaa siltä kannalta että mitä tapahtuu Macbook Pro ja Mac Pro-sarjaisten tietokoneiden kanssa. Suuri osa ammattilaisista ei ole vaihtamassa serveriin vaikka se kuinka olisi teknisesti parempi ratkaisu."

        Palvelimet olleet yleisiä 90-luvun alusta saakka. Sitä aiemmin oli tyyliin pankeissa ja vakuutusyhtiöissä.

        Ei siinä palvelimessa ole mitään kummallista, nykyään sitä tehoa saa vieläpä ostettua kätevästi pilvestä käytön mukaan. Riittäisikö 512 teraa muistia? 80000 GPU corea? Kliks kliks vaan.

        "A) Jätetään tehokkaammat tietokoneet ja esim. graafiseen suunnitteluun ja 3D-mallinnukseen käytettävät koneet kokonaan Wintelille"

        Ei tarvitse. 3D-mallinnus ei vaadi paljoa.

        "B) Apple aikoo ylläpitää kahta versiota MacOS:ista, yksi AMD64 ja toinen nykyisten mobiilisirujen jatkajille"

        Ei tarvitse kun voivat ARM:lla hoitaa kaiken. Saavat itseasiassa yhtenäistettyä iOS:n kanssa kätevästi.

        "C) Apple uskoo pystyvänsä kehittämään Inteliä ja AMD:tä tehokkaamman prosessorin konetehoja vaativiin tehtäviin"

        Mikä käyttöliittymä tarvitsee niitä konetehoja?

        "Palvelimet olleet yleisiä 90-luvun alusta saakka. Sitä aiemmin oli tyyliin pankeissa ja vakuutusyhtiöissä.

        Ei siinä palvelimessa ole mitään kummallista, nykyään sitä tehoa saa vieläpä ostettua kätevästi pilvestä käytön mukaan. Riittäisikö 512 teraa muistia? 80000 GPU corea? Kliks kliks vaan."

        Vastasin tohon itseasiassa jo aiemmin :)
        "Suuri osa ammattilaisista ei ole vaihtamassa serveriin vaikka se kuinka olisi teknisesti parempi ratkaisu."

        Mutta vastaustani täsmentääkseni, raja tulee yleisesti ottaen yrityksille siinä vastaan jos tuottamisen mittakaava tulee niin suurimuotoiseksi, että tulee halvemmaksi pitää designerit koko ajan tekemässä itse työtään (ja he tarvitsevat joka tapauksessa oman tietokoneen tietokoneen) kuin palkata esim. x% lisää työntekijöitä koneiden kanssa.
        Eli esimerkiksi suurimmilla tuotantostudioilla se on järkevää, mutta suurella osalla normaaleja yrityksiä ja yksityisihmisiä katetuotto-kannalta se ei tule kannattavaksi kustannuksien kannalta.

        "Ei tarvitse. 3D-mallinnus ei vaadi paljoa."

        Riippuu lähinnä miten korkeaa tarkkuutta tahdotaan erityisesti kun se pitää renderöidä myöhemmin. Joskin myönnettäköön että ajattelin yleisesti ottaen videorenderöintiä. Esimerkiksi 4k-videon editoiminen ja exporttaaminen (sekä 8k lähdetiedostojen) käyttäminen vaatii todella paljon tehoja.

        Vieläkin jopa verrattain lyhyissä tuotoksissa designeri ehtii käydä pitemmällä lounaalla jos on esim. perus i7-prosessori grafiikkakorttikiihdytyksellä.

        "Ei tarvitse kun voivat ARM:lla hoitaa kaiken. Saavat itseasiassa yhtenäistettyä iOS:n kanssa kätevästi."

        Paitsi sen tehokäyttäjät-segmentin :)
        Myönnettäköön että ohutta päätettä tahtovat joilla on iso serveri takahuoneessa ovat eri ryhmä, vaikka saattaisivat yleisesti ottaen tehdä samanlaisia asioita :)

        "Mikä käyttöliittymä tarvitsee niitä konetehoja?"

        Ei se käyttöliittymä enää moneen vuoteen ole ollut ongelma, vaan se mitä tahtoo tehdä koneella :)


      • Oudoksuva kirjoitti:

        "Palvelimet olleet yleisiä 90-luvun alusta saakka. Sitä aiemmin oli tyyliin pankeissa ja vakuutusyhtiöissä.

        Ei siinä palvelimessa ole mitään kummallista, nykyään sitä tehoa saa vieläpä ostettua kätevästi pilvestä käytön mukaan. Riittäisikö 512 teraa muistia? 80000 GPU corea? Kliks kliks vaan."

        Vastasin tohon itseasiassa jo aiemmin :)
        "Suuri osa ammattilaisista ei ole vaihtamassa serveriin vaikka se kuinka olisi teknisesti parempi ratkaisu."

        Mutta vastaustani täsmentääkseni, raja tulee yleisesti ottaen yrityksille siinä vastaan jos tuottamisen mittakaava tulee niin suurimuotoiseksi, että tulee halvemmaksi pitää designerit koko ajan tekemässä itse työtään (ja he tarvitsevat joka tapauksessa oman tietokoneen tietokoneen) kuin palkata esim. x% lisää työntekijöitä koneiden kanssa.
        Eli esimerkiksi suurimmilla tuotantostudioilla se on järkevää, mutta suurella osalla normaaleja yrityksiä ja yksityisihmisiä katetuotto-kannalta se ei tule kannattavaksi kustannuksien kannalta.

        "Ei tarvitse. 3D-mallinnus ei vaadi paljoa."

        Riippuu lähinnä miten korkeaa tarkkuutta tahdotaan erityisesti kun se pitää renderöidä myöhemmin. Joskin myönnettäköön että ajattelin yleisesti ottaen videorenderöintiä. Esimerkiksi 4k-videon editoiminen ja exporttaaminen (sekä 8k lähdetiedostojen) käyttäminen vaatii todella paljon tehoja.

        Vieläkin jopa verrattain lyhyissä tuotoksissa designeri ehtii käydä pitemmällä lounaalla jos on esim. perus i7-prosessori grafiikkakorttikiihdytyksellä.

        "Ei tarvitse kun voivat ARM:lla hoitaa kaiken. Saavat itseasiassa yhtenäistettyä iOS:n kanssa kätevästi."

        Paitsi sen tehokäyttäjät-segmentin :)
        Myönnettäköön että ohutta päätettä tahtovat joilla on iso serveri takahuoneessa ovat eri ryhmä, vaikka saattaisivat yleisesti ottaen tehdä samanlaisia asioita :)

        "Mikä käyttöliittymä tarvitsee niitä konetehoja?"

        Ei se käyttöliittymä enää moneen vuoteen ole ollut ongelma, vaan se mitä tahtoo tehdä koneella :)

        "Suuri osa ammattilaisista ei ole vaihtamassa serveriin vaikka se kuinka olisi teknisesti parempi ratkaisu."

        No sitten anämä mmattilaiset joutuvat unohtamaan Applen, Googlen ja Microsoftin jutut koska nämä pyrkivät siihen, että päätelaite ajaa käyttöliittymää ja edustaprosessia ja palvelin tallennusta ja taustaprosessointia.

        "Mutta vastaustani täsmentääkseni, raja tulee yleisesti ottaen yrityksille siinä vastaan jos tuottamisen mittakaava tulee niin suurimuotoiseksi, että tulee halvemmaksi pitää designerit koko ajan tekemässä itse työtään (ja he tarvitsevat joka tapauksessa oman tietokoneen tietokoneen) kuin palkata esim. x% lisää työntekijöitä koneiden kanssa. "

        Työntekijöitä tarvitsee vähemmän tuottavuuden kasvaessa.

        "Eli esimerkiksi suurimmilla tuotantostudioilla se on järkevää, mutta suurella osalla normaaleja yrityksiä ja yksityisihmisiä katetuotto-kannalta se ei tule kannattavaksi kustannuksien kannalta."

        Minkä kustannuksien?

        "Riippuu lähinnä miten korkeaa tarkkuutta tahdotaan erityisesti kun se pitää renderöidä myöhemmin. Joskin myönnettäköön että ajattelin yleisesti ottaen videorenderöintiä. Esimerkiksi 4k-videon editoiminen ja exporttaaminen (sekä 8k lähdetiedostojen) käyttäminen vaatii todella paljon tehoja."

        Sen renderöinnin hoitaa se palvelin. Päätelaitteessa on se mallinnuspuoli, eli tavallisesti joku rautalankahäkkyräanimaatio ja GPU:lla piirretty esikatselu. Kaiken aikaa vanhoja ohjelmia uusitaan että kohta ei edes onnistu päätelaitteessa ne taustajutut.


      • M-Kar kirjoitti:

        "Suuri osa ammattilaisista ei ole vaihtamassa serveriin vaikka se kuinka olisi teknisesti parempi ratkaisu."

        No sitten anämä mmattilaiset joutuvat unohtamaan Applen, Googlen ja Microsoftin jutut koska nämä pyrkivät siihen, että päätelaite ajaa käyttöliittymää ja edustaprosessia ja palvelin tallennusta ja taustaprosessointia.

        "Mutta vastaustani täsmentääkseni, raja tulee yleisesti ottaen yrityksille siinä vastaan jos tuottamisen mittakaava tulee niin suurimuotoiseksi, että tulee halvemmaksi pitää designerit koko ajan tekemässä itse työtään (ja he tarvitsevat joka tapauksessa oman tietokoneen tietokoneen) kuin palkata esim. x% lisää työntekijöitä koneiden kanssa. "

        Työntekijöitä tarvitsee vähemmän tuottavuuden kasvaessa.

        "Eli esimerkiksi suurimmilla tuotantostudioilla se on järkevää, mutta suurella osalla normaaleja yrityksiä ja yksityisihmisiä katetuotto-kannalta se ei tule kannattavaksi kustannuksien kannalta."

        Minkä kustannuksien?

        "Riippuu lähinnä miten korkeaa tarkkuutta tahdotaan erityisesti kun se pitää renderöidä myöhemmin. Joskin myönnettäköön että ajattelin yleisesti ottaen videorenderöintiä. Esimerkiksi 4k-videon editoiminen ja exporttaaminen (sekä 8k lähdetiedostojen) käyttäminen vaatii todella paljon tehoja."

        Sen renderöinnin hoitaa se palvelin. Päätelaitteessa on se mallinnuspuoli, eli tavallisesti joku rautalankahäkkyräanimaatio ja GPU:lla piirretty esikatselu. Kaiken aikaa vanhoja ohjelmia uusitaan että kohta ei edes onnistu päätelaitteessa ne taustajutut.

        "No sitten anämä mmattilaiset joutuvat unohtamaan Applen, Googlen ja Microsoftin jutut koska nämä pyrkivät siihen, että päätelaite ajaa käyttöliittymää ja edustaprosessia ja palvelin tallennusta ja taustaprosessointia."

        Todennäköisemmin asiat jatkuu samalla tavalla kuin aiemminkin seuraavan 10 vuoden ajan. Vähän tarkemmin mitä noi mainitsemasi firmat tarjoavat on pilvipalveluja, mutta se ei aina ole hinnan arvoinen verrattuna omaan laitteeseen.

        "Työntekijöitä tarvitsee vähemmän tuottavuuden kasvaessa.

        Minkä kustannuksien?"

        Eli jokainen työntekijä vaatii palkan esimerkiksi tietokoneen, näytön, hiiren, palkan, muut kustannukset (oli serveriä tai ei, tehokkaankin tietokoneen hinta on pieni verrattuna kuukausittaiseen työntekijäkustannuksiin) jne. mutta työntekijän palkkaaminen lisää työntekokapasiteettia työntekijän verran.

        Jos oletetaan että työntekijöiden työtulos on sama keskenään, hyvällä ajastusoptimoinnilla (esim. renderöimällä öisin ja taukojen aikana) henkilö kykenee käyttämään 90% käytettävästä ajasta, lasketaan palkkakustannukset (sisältäen sosiaaliturva jne.).
        Designerille 4400e/kk,
        Tietotekniikka 2000e/kertamaksu.
        Oletetaan että serveri joka voisi renderöidä kymmenen ihmisin puolesta kokonaan 20,000e/kertamaksu (sisältäen tupla-xeonit, kaksi Quadro P6000-korttia kiihdytykseen).

        Laskemista helpottaakseni jätän pois esim. sähkökustannukset laskuista ja sen että jos tahtoo käsitellä koneella esim. RED-kameroista tuotettua 4k/8k kuvamateriaalia, todella kannattaa hommata vielä koneet joihin saa RED Rocket-X kortin tai että renderöintiserveri vaatii osan työajasta firman sisäiseltä IT-osastolta että pidetään huoli että kaikki toimii (jos sellaista edes on).

        Ohessa lasken sen perusteella firma tarvitsee 12 full-time renderöijää vastaavan työpanoksen mutta katsoo että mahdollisesti ensivuonna laajennutaan 20:ksi:

        Tarvitset ~13 työntekijää ilman serveriä jolloin aloituskustannukset ovat:
        26000e/kertamaksu tietokoneista
        Palkkakulut:
        57200e/kk

        Servereillä tarvitset 12 työntekijää:
        64000e/kertamaksu tietokoneista kannettavista
        Palkkakulut:
        52800e/kk

        Erotus on siis että serverillä kertamaksu on 38000 euroa kalliimpi ja per kk 4400 euroa jolloin ottaa 9 kuukautta ennen kuin servereistä tulee rahallisesti yhtä kannattava kuin ilman servereitä työn tekeminen ja se lisää ylimääräisen kohdan joka voi ongelmien sattuessa pysäyttää osaston toiminnan kokonaan.

        "Sen renderöinnin hoitaa se palvelin. Päätelaitteessa on se mallinnuspuoli, eli tavallisesti joku rautalankahäkkyräanimaatio ja GPU:lla piirretty esikatselu. Kaiken aikaa vanhoja ohjelmia uusitaan että kohta ei edes onnistu päätelaitteessa ne taustajutut."

        Tällä hetkellä sen pääteläitteen tehovaatimukset ovat nousseet, sillä esimerkiksi 8k-videon editointi ennen viimeistä exporttaamista vaatii todella paljon koneelta. :)


      • Ihan disclaimerina siis. En ole sitä vastaan että asioita tehdään suurella skaalalla serverinä. Lähinnä ongelmana se, että yrityksillä ei välttämättä ole (rahallista tai muuten) motivaatiota siirtyä käyttämään kyseistä järjestelmää elleivät muutenkin ole jo siinä kokoluokassa että pitää pystyä puristamaan jokainen prosentti kustannustehokkuudesta pitkällä ajalla irti.

        Mutta tämänhetkinen tarve teholle tietokoneessa valitettavasti on toistaiseksi monella yrityksistä ja usealle yksityiskäyttäjällekin, ellei sitten pidä omaa serveriä harrastuksenaan*. :)

        *Been there, done that nuorempana, kun oli vielä enemmän vapaata aikaa.


      • Oudoksuva kirjoitti:

        "No sitten anämä mmattilaiset joutuvat unohtamaan Applen, Googlen ja Microsoftin jutut koska nämä pyrkivät siihen, että päätelaite ajaa käyttöliittymää ja edustaprosessia ja palvelin tallennusta ja taustaprosessointia."

        Todennäköisemmin asiat jatkuu samalla tavalla kuin aiemminkin seuraavan 10 vuoden ajan. Vähän tarkemmin mitä noi mainitsemasi firmat tarjoavat on pilvipalveluja, mutta se ei aina ole hinnan arvoinen verrattuna omaan laitteeseen.

        "Työntekijöitä tarvitsee vähemmän tuottavuuden kasvaessa.

        Minkä kustannuksien?"

        Eli jokainen työntekijä vaatii palkan esimerkiksi tietokoneen, näytön, hiiren, palkan, muut kustannukset (oli serveriä tai ei, tehokkaankin tietokoneen hinta on pieni verrattuna kuukausittaiseen työntekijäkustannuksiin) jne. mutta työntekijän palkkaaminen lisää työntekokapasiteettia työntekijän verran.

        Jos oletetaan että työntekijöiden työtulos on sama keskenään, hyvällä ajastusoptimoinnilla (esim. renderöimällä öisin ja taukojen aikana) henkilö kykenee käyttämään 90% käytettävästä ajasta, lasketaan palkkakustannukset (sisältäen sosiaaliturva jne.).
        Designerille 4400e/kk,
        Tietotekniikka 2000e/kertamaksu.
        Oletetaan että serveri joka voisi renderöidä kymmenen ihmisin puolesta kokonaan 20,000e/kertamaksu (sisältäen tupla-xeonit, kaksi Quadro P6000-korttia kiihdytykseen).

        Laskemista helpottaakseni jätän pois esim. sähkökustannukset laskuista ja sen että jos tahtoo käsitellä koneella esim. RED-kameroista tuotettua 4k/8k kuvamateriaalia, todella kannattaa hommata vielä koneet joihin saa RED Rocket-X kortin tai että renderöintiserveri vaatii osan työajasta firman sisäiseltä IT-osastolta että pidetään huoli että kaikki toimii (jos sellaista edes on).

        Ohessa lasken sen perusteella firma tarvitsee 12 full-time renderöijää vastaavan työpanoksen mutta katsoo että mahdollisesti ensivuonna laajennutaan 20:ksi:

        Tarvitset ~13 työntekijää ilman serveriä jolloin aloituskustannukset ovat:
        26000e/kertamaksu tietokoneista
        Palkkakulut:
        57200e/kk

        Servereillä tarvitset 12 työntekijää:
        64000e/kertamaksu tietokoneista kannettavista
        Palkkakulut:
        52800e/kk

        Erotus on siis että serverillä kertamaksu on 38000 euroa kalliimpi ja per kk 4400 euroa jolloin ottaa 9 kuukautta ennen kuin servereistä tulee rahallisesti yhtä kannattava kuin ilman servereitä työn tekeminen ja se lisää ylimääräisen kohdan joka voi ongelmien sattuessa pysäyttää osaston toiminnan kokonaan.

        "Sen renderöinnin hoitaa se palvelin. Päätelaitteessa on se mallinnuspuoli, eli tavallisesti joku rautalankahäkkyräanimaatio ja GPU:lla piirretty esikatselu. Kaiken aikaa vanhoja ohjelmia uusitaan että kohta ei edes onnistu päätelaitteessa ne taustajutut."

        Tällä hetkellä sen pääteläitteen tehovaatimukset ovat nousseet, sillä esimerkiksi 8k-videon editointi ennen viimeistä exporttaamista vaatii todella paljon koneelta. :)

        "Todennäköisemmin asiat jatkuu samalla tavalla kuin aiemminkin seuraavan 10 vuoden ajan."

        Eli, palvelinjutut palvelimessa ja päätelaitejutut päätelaitteessa ja ne missä on jotain sekasotkua uudelleenkirjoitetaan vähitellen.

        "Vähän tarkemmin mitä noi mainitsemasi firmat tarjoavat on pilvipalveluja, mutta se ei aina ole hinnan arvoinen verrattuna omaan laitteeseen."

        ?

        "Eli jokainen työntekijä vaatii palkan esimerkiksi tietokoneen, näytön, hiiren, palkan, muut kustannukset (oli serveriä tai ei, tehokkaankin tietokoneen hinta on pieni verrattuna kuukausittaiseen työntekijäkustannuksiin) jne. mutta työntekijän palkkaaminen lisää työntekokapasiteettia työntekijän verran.

        "Jos oletetaan että työntekijöiden työtulos on sama keskenään, hyvällä ajastusoptimoinnilla (esim. renderöimällä öisin ja taukojen aikana) henkilö kykenee käyttämään 90% käytettävästä ajasta, lasketaan palkkakustannukset (sisältäen sosiaaliturva jne.).
        Designerille 4400e/kk,
        Tietotekniikka 2000e/kertamaksu.
        Oletetaan että serveri joka voisi renderöidä kymmenen ihmisin puolesta kokonaan 20,000e/kertamaksu (sisältäen tupla-xeonit, kaksi Quadro P6000-korttia kiihdytykseen)."

        Pieleen meni ja rankasti. Päätelaite jossa ei ole paljoa tehoja on halpa. Muutama satanen.

        Taustajärjestelmissä taas ihan normaalia että voidaan skaalata. Alkumaksu voi olla niinkin pieni kuin muutama kymmenen euroa (Raspberry Pi), muutama satku (NUC), pari tonttua (yksittäinen räkki), tai sitten ostaa vaikka Amazonista ja kääntää vivusta paljon sitä resurssia haluaaa. Saadaan optimoitua kuormitus täysin tarpeiden mukaan ja coreja ja muistia voi lisätä kliksuttelemalla.

        "Laskemista helpottaakseni jätän pois esim. sähkökustannukset laskuista ja sen että jos tahtoo käsitellä koneella esim. RED-kameroista tuotettua 4k/8k kuvamateriaalia, todella kannattaa hommata vielä koneet joihin saa RED Rocket-X kortin tai että renderöintiserveri vaatii osan työajasta firman sisäiseltä IT-osastolta että pidetään huoli että kaikki toimii (jos sellaista edes on)."

        Semmoiset lisäkortit tietysti tarvitsevat vakaan alustan, mitä palvelimet tarjoavat. Muista, että macOS päivittyy nykyisin kerta vuoteen, Windows pari kertaa vuodessa, Android helposti 1-2x vuodessa. Päätelaite erikoiskorteille on kelvoton koska ajurirajapinta ei ole vakaa. Menee valtavan kalliiksi ja tuo säätöä kun menevät automaattipäivityksissä rikki.

        Paljon halvempaa jos jokaisessa kohteessa on serverissä kiinni se kortti ja importti siitä. Palvelin voi tietysti automaattisesti skeduloida työt, että onko se datan tuonti, kompressointi, jokainen renderöintitaski tai varmistus ja laite voidaan pitää tasaisella 100% kuormituksella.

        "Erotus on siis että serverillä kertamaksu on 38000 euroa kalliimpi ja per kk 4400 euroa jolloin ottaa 9 kuukautta ennen kuin servereistä tulee rahallisesti yhtä kannattava kuin ilman servereitä työn tekeminen ja se lisää ylimääräisen kohdan joka voi ongelmien sattuessa pysäyttää osaston toiminnan kokonaan."

        Palvelimet ihan normaalisti kahdennetaan ja ne ovat pitkäikäisempiä kuin 9kk. Helposti 6v.

        "Tällä hetkellä sen pääteläitteen tehovaatimukset ovat nousseet, sillä esimerkiksi 8k-videon editointi ennen viimeistä exporttaamista vaatii todella paljon koneelta. :)"

        Niin ja homman voi tehdä niin, että on vaikka 1000€ päätelaite, ilman erikoiskortteja ja palvelimia on helppo skaalata. Se on se ja sama onko se räkki mihin lisää palikoita vai joku Amazonin palvelu mistä väännetään vivusta lisää tehoa.

        Lähtisin kyllä siitä, että kahdennettu palvelin niin, että toinen node voi vikaantua ja se pudottaa laskentaresurssit puoleen mutta ei keskeytä mitään, ja erikoiskortti löytyy vain sieltä palvelimesta.

        Palvelin tekee muuten kivan tuottavuuslisän siinä, että helpottaa etätöitä kun kaikki data saadaan saataville missä vaan. Kaikennäköiset puolikuntoiset lentsupäivät saadaan hyödynnettyä jolloin ei toimistolle kykene.

        "Ihan disclaimerina siis. En ole sitä vastaan että asioita tehdään suurella skaalalla serverinä. Lähinnä ongelmana se, että yrityksillä ei välttämättä ole (rahallista tai muuten) motivaatiota siirtyä käyttämään kyseistä järjestelmää elleivät muutenkin ole jo siinä kokoluokassa että pitää pystyä puristamaan jokainen prosentti kustannustehokkuudesta pitkällä ajalla irti."

        Itseasiassa yhden hengen mikroyritykset alkavat toimia jo näin kun vaikka Adobe CC:ssä on se tallennustila mukana. Adoben ohjelmat toki ikivanhat että eivät vielä tietääkseni ole paljoa ehtineet siirtää sinne palvelimeen sitä prosessointia päätelaitetta kuormittamasta.

        Se aika usein menee niin, että softasta maksetaan kuukausi/vuosimaksua ja samalla hinnalla hinnalla saa sitä palvelinresurssia. Ei siis tarvitse mitään IT-osastoja tai fyysisiä laitteita.


      • Oudoksuva kirjoitti:

        Ihan disclaimerina siis. En ole sitä vastaan että asioita tehdään suurella skaalalla serverinä. Lähinnä ongelmana se, että yrityksillä ei välttämättä ole (rahallista tai muuten) motivaatiota siirtyä käyttämään kyseistä järjestelmää elleivät muutenkin ole jo siinä kokoluokassa että pitää pystyä puristamaan jokainen prosentti kustannustehokkuudesta pitkällä ajalla irti.

        Mutta tämänhetkinen tarve teholle tietokoneessa valitettavasti on toistaiseksi monella yrityksistä ja usealle yksityiskäyttäjällekin, ellei sitten pidä omaa serveriä harrastuksenaan*. :)

        *Been there, done that nuorempana, kun oli vielä enemmän vapaata aikaa.

        "Mutta tämänhetkinen tarve teholle tietokoneessa valitettavasti on toistaiseksi monella yrityksistä ja usealle yksityiskäyttäjällekin, ellei sitten pidä omaa serveriä harrastuksenaan*. :)"

        Serveriä saa muutamalla eurolla kuukaudessa tai vaikka oman muutamalla kympillä, että lähtötaso on hyvin matala.

        Se vähän vie mehut siitä päätelaitteesta jos liikaa tunkee samaan keskusyksikköön. Eli kun käyttää ihan normaaliin tapaan miten on suunniteltu niin suorituskyky harvemmin on ongelma.

        Jossain mediatyössä lähinnä olennaista on mitoitus, kun vuosikymmenien varrella tuotetun materiaalin resoluutio on noussut. Ihan sieltä videopelien 320x200 tarkkuudesta nykyiseen 4K videoon. Tarpeet voidaan mitoittaa, että haluttu taso saadaan ja laskenta nopeasti valmiiksi.


      • M-Kar kirjoitti:

        "Todennäköisemmin asiat jatkuu samalla tavalla kuin aiemminkin seuraavan 10 vuoden ajan."

        Eli, palvelinjutut palvelimessa ja päätelaitejutut päätelaitteessa ja ne missä on jotain sekasotkua uudelleenkirjoitetaan vähitellen.

        "Vähän tarkemmin mitä noi mainitsemasi firmat tarjoavat on pilvipalveluja, mutta se ei aina ole hinnan arvoinen verrattuna omaan laitteeseen."

        ?

        "Eli jokainen työntekijä vaatii palkan esimerkiksi tietokoneen, näytön, hiiren, palkan, muut kustannukset (oli serveriä tai ei, tehokkaankin tietokoneen hinta on pieni verrattuna kuukausittaiseen työntekijäkustannuksiin) jne. mutta työntekijän palkkaaminen lisää työntekokapasiteettia työntekijän verran.

        "Jos oletetaan että työntekijöiden työtulos on sama keskenään, hyvällä ajastusoptimoinnilla (esim. renderöimällä öisin ja taukojen aikana) henkilö kykenee käyttämään 90% käytettävästä ajasta, lasketaan palkkakustannukset (sisältäen sosiaaliturva jne.).
        Designerille 4400e/kk,
        Tietotekniikka 2000e/kertamaksu.
        Oletetaan että serveri joka voisi renderöidä kymmenen ihmisin puolesta kokonaan 20,000e/kertamaksu (sisältäen tupla-xeonit, kaksi Quadro P6000-korttia kiihdytykseen)."

        Pieleen meni ja rankasti. Päätelaite jossa ei ole paljoa tehoja on halpa. Muutama satanen.

        Taustajärjestelmissä taas ihan normaalia että voidaan skaalata. Alkumaksu voi olla niinkin pieni kuin muutama kymmenen euroa (Raspberry Pi), muutama satku (NUC), pari tonttua (yksittäinen räkki), tai sitten ostaa vaikka Amazonista ja kääntää vivusta paljon sitä resurssia haluaaa. Saadaan optimoitua kuormitus täysin tarpeiden mukaan ja coreja ja muistia voi lisätä kliksuttelemalla.

        "Laskemista helpottaakseni jätän pois esim. sähkökustannukset laskuista ja sen että jos tahtoo käsitellä koneella esim. RED-kameroista tuotettua 4k/8k kuvamateriaalia, todella kannattaa hommata vielä koneet joihin saa RED Rocket-X kortin tai että renderöintiserveri vaatii osan työajasta firman sisäiseltä IT-osastolta että pidetään huoli että kaikki toimii (jos sellaista edes on)."

        Semmoiset lisäkortit tietysti tarvitsevat vakaan alustan, mitä palvelimet tarjoavat. Muista, että macOS päivittyy nykyisin kerta vuoteen, Windows pari kertaa vuodessa, Android helposti 1-2x vuodessa. Päätelaite erikoiskorteille on kelvoton koska ajurirajapinta ei ole vakaa. Menee valtavan kalliiksi ja tuo säätöä kun menevät automaattipäivityksissä rikki.

        Paljon halvempaa jos jokaisessa kohteessa on serverissä kiinni se kortti ja importti siitä. Palvelin voi tietysti automaattisesti skeduloida työt, että onko se datan tuonti, kompressointi, jokainen renderöintitaski tai varmistus ja laite voidaan pitää tasaisella 100% kuormituksella.

        "Erotus on siis että serverillä kertamaksu on 38000 euroa kalliimpi ja per kk 4400 euroa jolloin ottaa 9 kuukautta ennen kuin servereistä tulee rahallisesti yhtä kannattava kuin ilman servereitä työn tekeminen ja se lisää ylimääräisen kohdan joka voi ongelmien sattuessa pysäyttää osaston toiminnan kokonaan."

        Palvelimet ihan normaalisti kahdennetaan ja ne ovat pitkäikäisempiä kuin 9kk. Helposti 6v.

        "Tällä hetkellä sen pääteläitteen tehovaatimukset ovat nousseet, sillä esimerkiksi 8k-videon editointi ennen viimeistä exporttaamista vaatii todella paljon koneelta. :)"

        Niin ja homman voi tehdä niin, että on vaikka 1000€ päätelaite, ilman erikoiskortteja ja palvelimia on helppo skaalata. Se on se ja sama onko se räkki mihin lisää palikoita vai joku Amazonin palvelu mistä väännetään vivusta lisää tehoa.

        Lähtisin kyllä siitä, että kahdennettu palvelin niin, että toinen node voi vikaantua ja se pudottaa laskentaresurssit puoleen mutta ei keskeytä mitään, ja erikoiskortti löytyy vain sieltä palvelimesta.

        Palvelin tekee muuten kivan tuottavuuslisän siinä, että helpottaa etätöitä kun kaikki data saadaan saataville missä vaan. Kaikennäköiset puolikuntoiset lentsupäivät saadaan hyödynnettyä jolloin ei toimistolle kykene.

        "Ihan disclaimerina siis. En ole sitä vastaan että asioita tehdään suurella skaalalla serverinä. Lähinnä ongelmana se, että yrityksillä ei välttämättä ole (rahallista tai muuten) motivaatiota siirtyä käyttämään kyseistä järjestelmää elleivät muutenkin ole jo siinä kokoluokassa että pitää pystyä puristamaan jokainen prosentti kustannustehokkuudesta pitkällä ajalla irti."

        Itseasiassa yhden hengen mikroyritykset alkavat toimia jo näin kun vaikka Adobe CC:ssä on se tallennustila mukana. Adoben ohjelmat toki ikivanhat että eivät vielä tietääkseni ole paljoa ehtineet siirtää sinne palvelimeen sitä prosessointia päätelaitetta kuormittamasta.

        Se aika usein menee niin, että softasta maksetaan kuukausi/vuosimaksua ja samalla hinnalla hinnalla saa sitä palvelinresurssia. Ei siis tarvitse mitään IT-osastoja tai fyysisiä laitteita.

        "Eli, palvelinjutut palvelimessa ja päätelaitejutut päätelaitteessa ja ne missä on jotain sekasotkua uudelleenkirjoitetaan vähitellen."

        Todennäköisesti seuraavan parinkymmenen vuoden sisällä tähän suuntaan vähitellen mennään kun nettiyhteydet nopeutuvat ja pilvipalvelut tulevat paremmiksi jolloin eduksi tulee teho missä tahansa.

        "Pieleen meni ja rankasti. Päätelaite jossa ei ole paljoa tehoja on halpa. Muutama satanen.

        Taustajärjestelmissä taas ihan normaalia että voidaan skaalata. Alkumaksu voi olla niinkin pieni kuin muutama kymmenen euroa (Raspberry Pi), muutama satku (NUC), pari tonttua (yksittäinen räkki), tai sitten ostaa vaikka Amazonista ja kääntää vivusta paljon sitä resurssia haluaaa. Saadaan optimoitua kuormitus täysin tarpeiden mukaan ja coreja ja muistia voi lisätä kliksuttelemalla."

        Oletko tsekannut miten paljon maksaa päätelaite jossa on täydellisesti Adobe RGB:n kattavat näytöt, tarpeeksi tehoa että kykenee toimivasti esikatselemaan ja päättämään mitä pitää tehdä muokattavalle datalle ja vielä voi ottaa mukaan ilman että tarvitsee kantaa ylimääräistä monitoria?

        Valitettavasti mainitsemasi vaihtoehdot eivät toimi edes taustajärjestelmäksi yrityskäytössä konetehojen puutteen vuoksi jolloin tehokkaammaksi tulee hommata jokaiselle työntekijälle tehokkaampi oma tietokone.
        Hidas päätelaite hidas taustaserveri on oikeastaan huonoin mahdollinen tilanne työn tekemisen kannalta kun konetehoja kaivataan, vähentäen tehokkuutta per työntekijä. :)

        "Semmoiset lisäkortit tietysti tarvitsevat vakaan alustan, mitä palvelimet tarjoavat. Muista, että macOS päivittyy nykyisin kerta vuoteen, Windows pari kertaa vuodessa, Android helposti 1-2x vuodessa. Päätelaite erikoiskorteille on kelvoton koska ajurirajapinta ei ole vakaa. Menee valtavan kalliiksi ja tuo säätöä kun menevät automaattipäivityksissä rikki.

        Paljon halvempaa jos jokaisessa kohteessa on serverissä kiinni se kortti ja importti siitä. Palvelin voi tietysti automaattisesti skeduloida työt, että onko se datan tuonti, kompressointi, jokainen renderöintitaski tai varmistus ja laite voidaan pitää tasaisella 100% kuormituksella."

        Mainitsemani lisäkortti toimii vain itse koneessa jossa editointia tehdään, virtualisointi ja remote desktop-tyylinen järjestelmä tällä hetkellä on vielä liian hidas käyttöliittymältään joten se vähentää työtehokkuutta per työntekijä.

        "Niin ja homman voi tehdä niin, että on vaikka 1000€ päätelaite, ilman erikoiskortteja ja palvelimia on helppo skaalata. Se on se ja sama onko se räkki mihin lisää palikoita vai joku Amazonin palvelu mistä väännetään vivusta lisää tehoa.

        Lähtisin kyllä siitä, että kahdennettu palvelin niin, että toinen node voi vikaantua ja se pudottaa laskentaresurssit puoleen mutta ei keskeytä mitään, ja erikoiskortti löytyy vain sieltä palvelimesta."

        Normaalit hinnat laitteille joilla voi edes katsoa raskaampaa työtä sujuvasti (ennen kuin annetaan se raskain renderöinti toiselle koneelle hoidettavaksi taustalla) kulkevat 1500-2000 euroa / kpl noin 500-600 euroa per kpl tarpeeksi hyvästä näytöstä ja päälle perusnäppäimistö ja hiiri.
        Joskin kahdennettu palvelin nostaa mainitsemassani tapauksessa takaisinmaksuaikaa 9:stä kuukaudesta 14-18 kuukauteen (14 jos oletetaan että kolmesta serveristä saa yksi mennä rikki ilman että haittaa työntekoa)

        "Palvelin tekee muuten kivan tuottavuuslisän siinä, että helpottaa etätöitä kun kaikki data saadaan saataville missä vaan. Kaikennäköiset puolikuntoiset lentsupäivät saadaan hyödynnettyä jolloin ei toimistolle kykene."

        Eli toisin sanoen, sama kuin jos työpaikka vain hoitaisi työntekijöilleen tarpeeksi tehokkaat kannettavat mitä yleensä ne tekevät muutenkin.

        "Itseasiassa yhden hengen mikroyritykset alkavat toimia jo näin kun vaikka Adobe CC:ssä on se tallennustila mukana. Adoben ohjelmat toki ikivanhat että eivät vielä tietääkseni ole paljoa ehtineet siirtää sinne palvelimeen sitä prosessointia päätelaitetta kuormittamasta.

        Se aika usein menee niin, että softasta maksetaan kuukausi/vuosimaksua ja samalla hinnalla hinnalla saa sitä palvelinresurssia. Ei siis tarvitse mitään IT-osastoja tai fyysisiä laitteita."

        Tuohon suuntaan melko varmasti mennään seuraavan parinkymmenen vuoden aikana :)


      • Oudoksuva kirjoitti:

        "Eli, palvelinjutut palvelimessa ja päätelaitejutut päätelaitteessa ja ne missä on jotain sekasotkua uudelleenkirjoitetaan vähitellen."

        Todennäköisesti seuraavan parinkymmenen vuoden sisällä tähän suuntaan vähitellen mennään kun nettiyhteydet nopeutuvat ja pilvipalvelut tulevat paremmiksi jolloin eduksi tulee teho missä tahansa.

        "Pieleen meni ja rankasti. Päätelaite jossa ei ole paljoa tehoja on halpa. Muutama satanen.

        Taustajärjestelmissä taas ihan normaalia että voidaan skaalata. Alkumaksu voi olla niinkin pieni kuin muutama kymmenen euroa (Raspberry Pi), muutama satku (NUC), pari tonttua (yksittäinen räkki), tai sitten ostaa vaikka Amazonista ja kääntää vivusta paljon sitä resurssia haluaaa. Saadaan optimoitua kuormitus täysin tarpeiden mukaan ja coreja ja muistia voi lisätä kliksuttelemalla."

        Oletko tsekannut miten paljon maksaa päätelaite jossa on täydellisesti Adobe RGB:n kattavat näytöt, tarpeeksi tehoa että kykenee toimivasti esikatselemaan ja päättämään mitä pitää tehdä muokattavalle datalle ja vielä voi ottaa mukaan ilman että tarvitsee kantaa ylimääräistä monitoria?

        Valitettavasti mainitsemasi vaihtoehdot eivät toimi edes taustajärjestelmäksi yrityskäytössä konetehojen puutteen vuoksi jolloin tehokkaammaksi tulee hommata jokaiselle työntekijälle tehokkaampi oma tietokone.
        Hidas päätelaite hidas taustaserveri on oikeastaan huonoin mahdollinen tilanne työn tekemisen kannalta kun konetehoja kaivataan, vähentäen tehokkuutta per työntekijä. :)

        "Semmoiset lisäkortit tietysti tarvitsevat vakaan alustan, mitä palvelimet tarjoavat. Muista, että macOS päivittyy nykyisin kerta vuoteen, Windows pari kertaa vuodessa, Android helposti 1-2x vuodessa. Päätelaite erikoiskorteille on kelvoton koska ajurirajapinta ei ole vakaa. Menee valtavan kalliiksi ja tuo säätöä kun menevät automaattipäivityksissä rikki.

        Paljon halvempaa jos jokaisessa kohteessa on serverissä kiinni se kortti ja importti siitä. Palvelin voi tietysti automaattisesti skeduloida työt, että onko se datan tuonti, kompressointi, jokainen renderöintitaski tai varmistus ja laite voidaan pitää tasaisella 100% kuormituksella."

        Mainitsemani lisäkortti toimii vain itse koneessa jossa editointia tehdään, virtualisointi ja remote desktop-tyylinen järjestelmä tällä hetkellä on vielä liian hidas käyttöliittymältään joten se vähentää työtehokkuutta per työntekijä.

        "Niin ja homman voi tehdä niin, että on vaikka 1000€ päätelaite, ilman erikoiskortteja ja palvelimia on helppo skaalata. Se on se ja sama onko se räkki mihin lisää palikoita vai joku Amazonin palvelu mistä väännetään vivusta lisää tehoa.

        Lähtisin kyllä siitä, että kahdennettu palvelin niin, että toinen node voi vikaantua ja se pudottaa laskentaresurssit puoleen mutta ei keskeytä mitään, ja erikoiskortti löytyy vain sieltä palvelimesta."

        Normaalit hinnat laitteille joilla voi edes katsoa raskaampaa työtä sujuvasti (ennen kuin annetaan se raskain renderöinti toiselle koneelle hoidettavaksi taustalla) kulkevat 1500-2000 euroa / kpl noin 500-600 euroa per kpl tarpeeksi hyvästä näytöstä ja päälle perusnäppäimistö ja hiiri.
        Joskin kahdennettu palvelin nostaa mainitsemassani tapauksessa takaisinmaksuaikaa 9:stä kuukaudesta 14-18 kuukauteen (14 jos oletetaan että kolmesta serveristä saa yksi mennä rikki ilman että haittaa työntekoa)

        "Palvelin tekee muuten kivan tuottavuuslisän siinä, että helpottaa etätöitä kun kaikki data saadaan saataville missä vaan. Kaikennäköiset puolikuntoiset lentsupäivät saadaan hyödynnettyä jolloin ei toimistolle kykene."

        Eli toisin sanoen, sama kuin jos työpaikka vain hoitaisi työntekijöilleen tarpeeksi tehokkaat kannettavat mitä yleensä ne tekevät muutenkin.

        "Itseasiassa yhden hengen mikroyritykset alkavat toimia jo näin kun vaikka Adobe CC:ssä on se tallennustila mukana. Adoben ohjelmat toki ikivanhat että eivät vielä tietääkseni ole paljoa ehtineet siirtää sinne palvelimeen sitä prosessointia päätelaitetta kuormittamasta.

        Se aika usein menee niin, että softasta maksetaan kuukausi/vuosimaksua ja samalla hinnalla hinnalla saa sitä palvelinresurssia. Ei siis tarvitse mitään IT-osastoja tai fyysisiä laitteita."

        Tuohon suuntaan melko varmasti mennään seuraavan parinkymmenen vuoden aikana :)

        "Todennäköisesti seuraavan parinkymmenen vuoden sisällä tähän suuntaan vähitellen mennään kun nettiyhteydet nopeutuvat ja pilvipalvelut tulevat paremmiksi jolloin eduksi tulee teho missä tahansa."

        Nettiyhteydet menivät nopeiksi 15v sitten ja ohjelmia on kirjoitettu myös suunnilleen yhtä kauan uusiksi.

        Se on nykyisyyttä, ei tulevaisuutta.

        "Oletko tsekannut miten paljon maksaa päätelaite jossa on täydellisesti Adobe RGB:n kattavat näytöt, tarpeeksi tehoa että kykenee toimivasti esikatselemaan ja päättämään mitä pitää tehdä muokattavalle datalle ja vielä voi ottaa mukaan ilman että tarvitsee kantaa ylimääräistä monitoria?"

        Näyttöhän siinä se kallis osa on ja hinnat laskee samaa tahtia kuin ohjelmia kirjoitetaan uusiksi.

        "Valitettavasti mainitsemasi vaihtoehdot eivät toimi edes taustajärjestelmäksi yrityskäytössä konetehojen puutteen vuoksi jolloin tehokkaammaksi tulee hommata jokaiselle työntekijälle tehokkaampi oma tietokone."

        Riippuu mitä tarvitaan. Palvelin nyt tarvitaan joka tapauksessa, joko oma tai jonkun muun että saadaan tiedostot johonkin.

        "Hidas päätelaite hidas taustaserveri on oikeastaan huonoin mahdollinen tilanne työn tekemisen kannalta kun konetehoja kaivataan, vähentäen tehokkuutta per työntekijä. :)"

        Edelleenkin se suorituskyky ei ole yleensä ikinä mikään ongelma.

        "Mainitsemani lisäkortti toimii vain itse koneessa jossa editointia tehdään, virtualisointi ja remote desktop-tyylinen järjestelmä tällä hetkellä on vielä liian hidas käyttöliittymältään joten se vähentää työtehokkuutta per työntekijä. "

        Uusien korttien ostaminen vähän väliä on myös kallista pakollisten käyttöjärjestelmäpäivitysten yhteydessä. Vanhanmallisilla ohjelmilla joutuu käyttämään jotan RDP:tä mutta senkin saa tarvittaessa nopeaksi. Ei se missään gigabitin lähiverkossa mikään hidas ole.

        "Tuohon suuntaan melko varmasti mennään seuraavan parinkymmenen vuoden aikana :)

        Adobe Creative Cloud tuli 5v sitten ja niiden vanhojen tuki on loppunut jo todennäköisesti ei enää toimi nykyisessä Windowsissa kun käyttöjärjestelmäversio on muuttunut ties kuinka monta kertaa. Eli siis ei ole mitään 20v kuluttua tulevaa vaan jotain mikä ollut vanhanaikaisissa Adoben ohjelmissakin vakio 5v jo.


      • M-Kar kirjoitti:

        "Todennäköisesti seuraavan parinkymmenen vuoden sisällä tähän suuntaan vähitellen mennään kun nettiyhteydet nopeutuvat ja pilvipalvelut tulevat paremmiksi jolloin eduksi tulee teho missä tahansa."

        Nettiyhteydet menivät nopeiksi 15v sitten ja ohjelmia on kirjoitettu myös suunnilleen yhtä kauan uusiksi.

        Se on nykyisyyttä, ei tulevaisuutta.

        "Oletko tsekannut miten paljon maksaa päätelaite jossa on täydellisesti Adobe RGB:n kattavat näytöt, tarpeeksi tehoa että kykenee toimivasti esikatselemaan ja päättämään mitä pitää tehdä muokattavalle datalle ja vielä voi ottaa mukaan ilman että tarvitsee kantaa ylimääräistä monitoria?"

        Näyttöhän siinä se kallis osa on ja hinnat laskee samaa tahtia kuin ohjelmia kirjoitetaan uusiksi.

        "Valitettavasti mainitsemasi vaihtoehdot eivät toimi edes taustajärjestelmäksi yrityskäytössä konetehojen puutteen vuoksi jolloin tehokkaammaksi tulee hommata jokaiselle työntekijälle tehokkaampi oma tietokone."

        Riippuu mitä tarvitaan. Palvelin nyt tarvitaan joka tapauksessa, joko oma tai jonkun muun että saadaan tiedostot johonkin.

        "Hidas päätelaite hidas taustaserveri on oikeastaan huonoin mahdollinen tilanne työn tekemisen kannalta kun konetehoja kaivataan, vähentäen tehokkuutta per työntekijä. :)"

        Edelleenkin se suorituskyky ei ole yleensä ikinä mikään ongelma.

        "Mainitsemani lisäkortti toimii vain itse koneessa jossa editointia tehdään, virtualisointi ja remote desktop-tyylinen järjestelmä tällä hetkellä on vielä liian hidas käyttöliittymältään joten se vähentää työtehokkuutta per työntekijä. "

        Uusien korttien ostaminen vähän väliä on myös kallista pakollisten käyttöjärjestelmäpäivitysten yhteydessä. Vanhanmallisilla ohjelmilla joutuu käyttämään jotan RDP:tä mutta senkin saa tarvittaessa nopeaksi. Ei se missään gigabitin lähiverkossa mikään hidas ole.

        "Tuohon suuntaan melko varmasti mennään seuraavan parinkymmenen vuoden aikana :)

        Adobe Creative Cloud tuli 5v sitten ja niiden vanhojen tuki on loppunut jo todennäköisesti ei enää toimi nykyisessä Windowsissa kun käyttöjärjestelmäversio on muuttunut ties kuinka monta kertaa. Eli siis ei ole mitään 20v kuluttua tulevaa vaan jotain mikä ollut vanhanaikaisissa Adoben ohjelmissakin vakio 5v jo.

        "Nettiyhteydet menivät nopeiksi 15v sitten ja ohjelmia on kirjoitettu myös suunnilleen yhtä kauan uusiksi.

        Se on nykyisyyttä, ei tulevaisuutta."

        Nopeudella viittaan myös latencyyn eli miten kauan kestää että signaali tulee perille. Esimerkkinä jos itse olen tekemässä jotain taulukkolaskentaa on hyvin häiritsevää jos käyttöliittymä jää jumiin odottamaan vastausta mitä pitäisi tehdä toiselta puolelta.

        Tämä on myös syy miksi esim. tehoja vaativa pelaaminen etäprosessoinnilla ei ole vielä onnistunut niin hyvin (vaikka esim. Geforce Now tulee jo melko lähellä).

        Sama juttu töitä tehdessä. Tämän vuoksi uskoisin että tulevaisuudssa optimaalinen ratkaisu (tehojen ja käyttömukavuuden kannalta) on sellainen missä päätelaitteellakin on tarpeeksi paljon prosessointikapasiteettia että useat asiat voi hoitaa ilman että tarvitsee odottaa vastausta kauempaa.

        Pitkän ajan tallennus on taas toinen asia ja siinä pilvipalvelut ja keskitetyt ratkaisut ovat päässeet tosi hyvin lävitse :) Itselläkin NAS käytössä kotona.

        "Riippuu mitä tarvitaan. Palvelin nyt tarvitaan joka tapauksessa, joko oma tai jonkun muun että saadaan tiedostot johonkin."

        Palvelin tallennuskäyttöön on jo standardina mm. koska sopivasti RAID:itettuna se antaa myös lisää turvallisuutta varmuuskopiointiin :)

        "Edelleenkin se suorituskyky ei ole yleensä ikinä mikään ongelma."

        Niin kauan kuin saavutetaan tietyn tason responsiivisuus käyttöliittymältä mitä tahansa käyttäjä tahtoisi sitten tehdä.

        "Adobe Creative Cloud tuli 5v sitten ja niiden vanhojen tuki on loppunut jo todennäköisesti ei enää toimi nykyisessä Windowsissa kun käyttöjärjestelmäversio on muuttunut ties kuinka monta kertaa. Eli siis ei ole mitään 20v kuluttua tulevaa vaan jotain mikä ollut vanhanaikaisissa Adoben ohjelmissakin vakio 5v jo."

        Jeps, siis meilläkin töissä käytössä sekä omat sisäiset serverit, designereilla Adobe CC:t ja firman google drivet. Mutta kestää kestää vielä aikaa että saadaan tallennuksen lisäksi myös prosessointi ulkoistettua tavalla joka ei haittaa lainkaan käyttöliittymän responsiivisuutta.

        Kuten mainitsin jo useasti, olen siitä samaa mieltä kanssasi että joku päivä tekniikka ja softat tulevat olemaan tasolla jossa myös prosessointia voi ulkoistaa mahdollisimman paljon. (Joskin en usko että tulemme menemään takaisin vain päätelaitteisiin)...

        Mutta en näe että se olisi tällä hetkellä vielä mahdollista tai kannattavaa jokaisella alalla :)


      • Oudoksuva kirjoitti:

        "Nettiyhteydet menivät nopeiksi 15v sitten ja ohjelmia on kirjoitettu myös suunnilleen yhtä kauan uusiksi.

        Se on nykyisyyttä, ei tulevaisuutta."

        Nopeudella viittaan myös latencyyn eli miten kauan kestää että signaali tulee perille. Esimerkkinä jos itse olen tekemässä jotain taulukkolaskentaa on hyvin häiritsevää jos käyttöliittymä jää jumiin odottamaan vastausta mitä pitäisi tehdä toiselta puolelta.

        Tämä on myös syy miksi esim. tehoja vaativa pelaaminen etäprosessoinnilla ei ole vielä onnistunut niin hyvin (vaikka esim. Geforce Now tulee jo melko lähellä).

        Sama juttu töitä tehdessä. Tämän vuoksi uskoisin että tulevaisuudssa optimaalinen ratkaisu (tehojen ja käyttömukavuuden kannalta) on sellainen missä päätelaitteellakin on tarpeeksi paljon prosessointikapasiteettia että useat asiat voi hoitaa ilman että tarvitsee odottaa vastausta kauempaa.

        Pitkän ajan tallennus on taas toinen asia ja siinä pilvipalvelut ja keskitetyt ratkaisut ovat päässeet tosi hyvin lävitse :) Itselläkin NAS käytössä kotona.

        "Riippuu mitä tarvitaan. Palvelin nyt tarvitaan joka tapauksessa, joko oma tai jonkun muun että saadaan tiedostot johonkin."

        Palvelin tallennuskäyttöön on jo standardina mm. koska sopivasti RAID:itettuna se antaa myös lisää turvallisuutta varmuuskopiointiin :)

        "Edelleenkin se suorituskyky ei ole yleensä ikinä mikään ongelma."

        Niin kauan kuin saavutetaan tietyn tason responsiivisuus käyttöliittymältä mitä tahansa käyttäjä tahtoisi sitten tehdä.

        "Adobe Creative Cloud tuli 5v sitten ja niiden vanhojen tuki on loppunut jo todennäköisesti ei enää toimi nykyisessä Windowsissa kun käyttöjärjestelmäversio on muuttunut ties kuinka monta kertaa. Eli siis ei ole mitään 20v kuluttua tulevaa vaan jotain mikä ollut vanhanaikaisissa Adoben ohjelmissakin vakio 5v jo."

        Jeps, siis meilläkin töissä käytössä sekä omat sisäiset serverit, designereilla Adobe CC:t ja firman google drivet. Mutta kestää kestää vielä aikaa että saadaan tallennuksen lisäksi myös prosessointi ulkoistettua tavalla joka ei haittaa lainkaan käyttöliittymän responsiivisuutta.

        Kuten mainitsin jo useasti, olen siitä samaa mieltä kanssasi että joku päivä tekniikka ja softat tulevat olemaan tasolla jossa myös prosessointia voi ulkoistaa mahdollisimman paljon. (Joskin en usko että tulemme menemään takaisin vain päätelaitteisiin)...

        Mutta en näe että se olisi tällä hetkellä vielä mahdollista tai kannattavaa jokaisella alalla :)

        "Nopeudella viittaan myös latencyyn eli miten kauan kestää että signaali tulee perille. Esimerkkinä jos itse olen tekemässä jotain taulukkolaskentaa on hyvin häiritsevää jos käyttöliittymä jää jumiin odottamaan vastausta mitä pitäisi tehdä toiselta puolelta."

        Ei jää. Taulukkolaskennan prosessointi tapahtuu edustalla taustalla tapahtuu tallennus ja lataus. MS Office 365:lla tuo taisi vieläpä toimia niin, että tallentaa välittömästi ja OneDrive sitten synkronoi.

        "Tämä on myös syy miksi esim. tehoja vaativa pelaaminen etäprosessoinnilla ei ole vielä onnistunut niin hyvin (vaikka esim. Geforce Now tulee jo melko lähellä)."

        Johan sitä oli jo Quake Worldissa 32 samanaikaista pelaajaa vuonna 1996. Hyvin siis onnistuu.

        "Sama juttu töitä tehdessä. Tämän vuoksi uskoisin että tulevaisuudssa optimaalinen ratkaisu (tehojen ja käyttömukavuuden kannalta) on sellainen missä päätelaitteellakin on tarpeeksi paljon prosessointikapasiteettia että useat asiat voi hoitaa ilman että tarvitsee odottaa vastausta kauempaa."

        Siihen riittää käyttöliitymän pitäminen päätelaitteessa. Se on hidasta silloin jos käyttäjän lähettämät komennot lähetetään palvelimelle, siellä renderöidään näkymä ja tuodaan päätteelle. Siinä ei tietenkään ole mitään järkeä mutta olemassa olevat standardit ja niiden toteutukset suosivat tällaista johonkin vuoteen 2007 saakka. Viimeiset 4v lähes kaikki on onnistunut pöytäkoneissa standardilla tavalla niin että käyttöliittymä on päätelaitteessa. Toki natiivilla käyttöliittymäsovelluksella ollaan voitu iäisyyden tehdä hommat siististi.

        Käyttöliittymän prosessointi nyt ei tarvitse mitään mahdottomia, että ei silleen ole tehoista kiinni.

        "Pitkän ajan tallennus on taas toinen asia ja siinä pilvipalvelut ja keskitetyt ratkaisut ovat päässeet tosi hyvin lävitse :) Itselläkin NAS käytössä kotona."

        Tiedostopalvelimet alkoi yleistyä 80-luvulla just jossain pankeissa, öljy-yhtiöissä, vakuutusyhtiöissä jne. mutta PK-yrityksissä tulivat 90-luvun alkupuolella. Kotiverkoissa alkoivat yleistyä 2000-luvun alkupuolella. Tämän vuosikymmenen alkupuolella palvelimet on usein hävitetty nurkista pois tuota hankitaan palveluna.

        Tiedon pitäminen keskitettynä on ensisijaisen tärkeätä jo senkin takia, että saadaan varmuuskopiointi automatisoitua järkevästi.

        "Niin kauan kuin saavutetaan tietyn tason responsiivisuus käyttöliittymältä mitä tahansa käyttäjä tahtoisi sitten tehdä."

        Oli jo 80-luvulla. https://www.youtube.com/watch?v=mksB3v3ciq0

        80-luvun puolivälissä oli jo se responsiivinen graafinen liittymä. Videot tms. oli se haastava juttu mikä ei heti onnistunut ja onhan nuo resoluutiot toki nousseet.

        "Mutta kestää kestää vielä aikaa että saadaan tallennuksen lisäksi myös prosessointi ulkoistettua tavalla joka ei haittaa lainkaan käyttöliittymän responsiivisuutta."

        Se käy niin, että käyttöliittymä pidetään paikallisesti joten sitten mikään ei haittaa sen responsiivisuutta. Kaikki taustaprosessointi, haku ja tallennus voidaan viedä palvelimeen hyvin helposti jos vielä ei ole. Vanhat hölmösti tehdyt rupuohjelmat siinä rajoittaa joiden kehitys alkanut 90-luvun alkupuolella.

        "Kuten mainitsin jo useasti, olen siitä samaa mieltä kanssasi että joku päivä tekniikka ja softat tulevat olemaan tasolla jossa myös prosessointia voi ulkoistaa mahdollisimman paljon."

        Ei pidä ulkoistaa mahdollisimman paljon vaan tieto pitää saada mahdollisimman paljon pois päätelaitteesta ja taustaprosessointi. Käyttöliittymä ja edustaprosessointi kannattaa pitää päätelaitteessa eikä kuormita niillä palvelinta.

        Tekniikkaa ollut tähän käytännössä yhtä kauan kuin vakiintuneet standardit ja toteutuksessa riittävä suorituskyky. Eli käytännössä TCP/IP protokollapino. Jotain poikkeustilanteita voinut löytyä, esim. kaistan tarve mediajutuissa kun lähiverkko oli hitaampi 90-luvun alussa. 100M verkko tuli vasta 90-luvun puolivälissä.

        "Mutta en näe että se olisi tällä hetkellä vielä mahdollista tai kannattavaa jokaisella alalla"

        Riippuu kuinka rupuinen ohjelma käytössä. Tekniikassa lähes kaikki ongelmakohdat saatiin kuntoon 90-luvun puolivälissä lähiverkoissa. Pidemmillä etäisyyksillä yhteysnopeudet vaikutti paljonkin vuoteen 2003-2005 saakka.

        Voit laskinta näpyttelemällä helposti tarkistaa mikä onnistuu ja mikä ei ja homma on aina kannattavaa kun saadaan tietoa keskitettyä ja taustaprosessointia pois päätelaitteista.


      • M-Kar kirjoitti:

        "Nopeudella viittaan myös latencyyn eli miten kauan kestää että signaali tulee perille. Esimerkkinä jos itse olen tekemässä jotain taulukkolaskentaa on hyvin häiritsevää jos käyttöliittymä jää jumiin odottamaan vastausta mitä pitäisi tehdä toiselta puolelta."

        Ei jää. Taulukkolaskennan prosessointi tapahtuu edustalla taustalla tapahtuu tallennus ja lataus. MS Office 365:lla tuo taisi vieläpä toimia niin, että tallentaa välittömästi ja OneDrive sitten synkronoi.

        "Tämä on myös syy miksi esim. tehoja vaativa pelaaminen etäprosessoinnilla ei ole vielä onnistunut niin hyvin (vaikka esim. Geforce Now tulee jo melko lähellä)."

        Johan sitä oli jo Quake Worldissa 32 samanaikaista pelaajaa vuonna 1996. Hyvin siis onnistuu.

        "Sama juttu töitä tehdessä. Tämän vuoksi uskoisin että tulevaisuudssa optimaalinen ratkaisu (tehojen ja käyttömukavuuden kannalta) on sellainen missä päätelaitteellakin on tarpeeksi paljon prosessointikapasiteettia että useat asiat voi hoitaa ilman että tarvitsee odottaa vastausta kauempaa."

        Siihen riittää käyttöliitymän pitäminen päätelaitteessa. Se on hidasta silloin jos käyttäjän lähettämät komennot lähetetään palvelimelle, siellä renderöidään näkymä ja tuodaan päätteelle. Siinä ei tietenkään ole mitään järkeä mutta olemassa olevat standardit ja niiden toteutukset suosivat tällaista johonkin vuoteen 2007 saakka. Viimeiset 4v lähes kaikki on onnistunut pöytäkoneissa standardilla tavalla niin että käyttöliittymä on päätelaitteessa. Toki natiivilla käyttöliittymäsovelluksella ollaan voitu iäisyyden tehdä hommat siististi.

        Käyttöliittymän prosessointi nyt ei tarvitse mitään mahdottomia, että ei silleen ole tehoista kiinni.

        "Pitkän ajan tallennus on taas toinen asia ja siinä pilvipalvelut ja keskitetyt ratkaisut ovat päässeet tosi hyvin lävitse :) Itselläkin NAS käytössä kotona."

        Tiedostopalvelimet alkoi yleistyä 80-luvulla just jossain pankeissa, öljy-yhtiöissä, vakuutusyhtiöissä jne. mutta PK-yrityksissä tulivat 90-luvun alkupuolella. Kotiverkoissa alkoivat yleistyä 2000-luvun alkupuolella. Tämän vuosikymmenen alkupuolella palvelimet on usein hävitetty nurkista pois tuota hankitaan palveluna.

        Tiedon pitäminen keskitettynä on ensisijaisen tärkeätä jo senkin takia, että saadaan varmuuskopiointi automatisoitua järkevästi.

        "Niin kauan kuin saavutetaan tietyn tason responsiivisuus käyttöliittymältä mitä tahansa käyttäjä tahtoisi sitten tehdä."

        Oli jo 80-luvulla. https://www.youtube.com/watch?v=mksB3v3ciq0

        80-luvun puolivälissä oli jo se responsiivinen graafinen liittymä. Videot tms. oli se haastava juttu mikä ei heti onnistunut ja onhan nuo resoluutiot toki nousseet.

        "Mutta kestää kestää vielä aikaa että saadaan tallennuksen lisäksi myös prosessointi ulkoistettua tavalla joka ei haittaa lainkaan käyttöliittymän responsiivisuutta."

        Se käy niin, että käyttöliittymä pidetään paikallisesti joten sitten mikään ei haittaa sen responsiivisuutta. Kaikki taustaprosessointi, haku ja tallennus voidaan viedä palvelimeen hyvin helposti jos vielä ei ole. Vanhat hölmösti tehdyt rupuohjelmat siinä rajoittaa joiden kehitys alkanut 90-luvun alkupuolella.

        "Kuten mainitsin jo useasti, olen siitä samaa mieltä kanssasi että joku päivä tekniikka ja softat tulevat olemaan tasolla jossa myös prosessointia voi ulkoistaa mahdollisimman paljon."

        Ei pidä ulkoistaa mahdollisimman paljon vaan tieto pitää saada mahdollisimman paljon pois päätelaitteesta ja taustaprosessointi. Käyttöliittymä ja edustaprosessointi kannattaa pitää päätelaitteessa eikä kuormita niillä palvelinta.

        Tekniikkaa ollut tähän käytännössä yhtä kauan kuin vakiintuneet standardit ja toteutuksessa riittävä suorituskyky. Eli käytännössä TCP/IP protokollapino. Jotain poikkeustilanteita voinut löytyä, esim. kaistan tarve mediajutuissa kun lähiverkko oli hitaampi 90-luvun alussa. 100M verkko tuli vasta 90-luvun puolivälissä.

        "Mutta en näe että se olisi tällä hetkellä vielä mahdollista tai kannattavaa jokaisella alalla"

        Riippuu kuinka rupuinen ohjelma käytössä. Tekniikassa lähes kaikki ongelmakohdat saatiin kuntoon 90-luvun puolivälissä lähiverkoissa. Pidemmillä etäisyyksillä yhteysnopeudet vaikutti paljonkin vuoteen 2003-2005 saakka.

        Voit laskinta näpyttelemällä helposti tarkistaa mikä onnistuu ja mikä ei ja homma on aina kannattavaa kun saadaan tietoa keskitettyä ja taustaprosessointia pois päätelaitteista.

        "Ei jää. Taulukkolaskennan prosessointi tapahtuu edustalla taustalla tapahtuu tallennus ja lataus. MS Office 365:lla tuo taisi vieläpä toimia niin, että tallentaa välittömästi ja OneDrive sitten synkronoi."

        Jolloin jää tarve tehokkaalle prosessoinnille päätteessä, vaikka vähemmän tallennustilaa tarvitaan. Josta kätevästi tulemme takaisin aiheeseen, eli energiatehokkaammat prosessorit joissa on verrattain vähemmän tehoa. Ne varmasti toimivat moniin tarkoituksiin, mutta on asioita jotka ovat vaikeita :)

        "Johan sitä oli jo Quake Worldissa 32 samanaikaista pelaajaa vuonna 1996. Hyvin siis onnistuu."

        Quake World ja Geforce Now eivät ole järkevästi vertailukelpoisia, nettipeleissä kuten Quakessa lähinnä synkronisoidaan hahmojen koordinaatit ja teot (esim. jos joku ampuu) siinä missä Geforce Now tyylisessä koko prosessointi tapahtuu etänä, näppäinpainallukset nauhoitetaan ja lähetetään etäpäätteelle joka renderöi pelin ja sitten lähettää sopivasti pakattuna mitä näytöllä pitäisi näkyä.

        Tässä siis vaikka ollaan päästy niin että pelit ovat oikeastaan pelattavia, mitään nopeampitempoisia pelejä on vaikea pelata koska reagointi pelaajaan on silti paljon hitaampaa kuin paikallinen prosessointi.

        Sama juttu muiden ohjelmien käyttöliittymissä, vaikkakin se on teoriassa mahdollista toteuttaa se luo mahdollisesti epämukavan viiveen jokaiselle asialle mitä tekee.

        "Ei pidä ulkoistaa mahdollisimman paljon vaan tieto pitää saada mahdollisimman paljon pois päätelaitteesta ja taustaprosessointi. Käyttöliittymä ja edustaprosessointi kannattaa pitää päätelaitteessa eikä kuormita niillä palvelinta."

        Valitettavasti alan olemaan koko ajan enemmän epävarma siitä, mitä sinä tarkoitat taustaprosessoinnilla ja mitä voi siirtää päätteestä ilman että aiheuttaa huonomman käyttökokemuksen?

        "Voit laskinta näpyttelemällä helposti tarkistaa mikä onnistuu ja mikä ei ja homma on aina kannattavaa kun saadaan tietoa keskitettyä ja taustaprosessointia pois päätelaitteista."

        Laskinta näpyttelemällä nopeimmat tiedonsiirtomenetelmät per sekunti vaikuttavat olevan rekallinen täynnä flash-muistia tai esimerkiksi lentokoneessa kuljetettava matkalaukku johon mahtuu 120TB.
        https://aws.amazon.com/snowmobile/
        https://www.theregister.co.uk/2017/09/19/ibm_cloud_mass_data_migration_appliance/

        Ainoa pienenpieni ongelma näissä tulee jos tahtoo pystyä käsittelemään dataa reaaliaikaisesti koska viive ja nopeus ovat kaksi eri ulottuvuutta nettiyhteyden tehokkuutta mitattaessa.


      • Oudoksuva kirjoitti:

        "Ei jää. Taulukkolaskennan prosessointi tapahtuu edustalla taustalla tapahtuu tallennus ja lataus. MS Office 365:lla tuo taisi vieläpä toimia niin, että tallentaa välittömästi ja OneDrive sitten synkronoi."

        Jolloin jää tarve tehokkaalle prosessoinnille päätteessä, vaikka vähemmän tallennustilaa tarvitaan. Josta kätevästi tulemme takaisin aiheeseen, eli energiatehokkaammat prosessorit joissa on verrattain vähemmän tehoa. Ne varmasti toimivat moniin tarkoituksiin, mutta on asioita jotka ovat vaikeita :)

        "Johan sitä oli jo Quake Worldissa 32 samanaikaista pelaajaa vuonna 1996. Hyvin siis onnistuu."

        Quake World ja Geforce Now eivät ole järkevästi vertailukelpoisia, nettipeleissä kuten Quakessa lähinnä synkronisoidaan hahmojen koordinaatit ja teot (esim. jos joku ampuu) siinä missä Geforce Now tyylisessä koko prosessointi tapahtuu etänä, näppäinpainallukset nauhoitetaan ja lähetetään etäpäätteelle joka renderöi pelin ja sitten lähettää sopivasti pakattuna mitä näytöllä pitäisi näkyä.

        Tässä siis vaikka ollaan päästy niin että pelit ovat oikeastaan pelattavia, mitään nopeampitempoisia pelejä on vaikea pelata koska reagointi pelaajaan on silti paljon hitaampaa kuin paikallinen prosessointi.

        Sama juttu muiden ohjelmien käyttöliittymissä, vaikkakin se on teoriassa mahdollista toteuttaa se luo mahdollisesti epämukavan viiveen jokaiselle asialle mitä tekee.

        "Ei pidä ulkoistaa mahdollisimman paljon vaan tieto pitää saada mahdollisimman paljon pois päätelaitteesta ja taustaprosessointi. Käyttöliittymä ja edustaprosessointi kannattaa pitää päätelaitteessa eikä kuormita niillä palvelinta."

        Valitettavasti alan olemaan koko ajan enemmän epävarma siitä, mitä sinä tarkoitat taustaprosessoinnilla ja mitä voi siirtää päätteestä ilman että aiheuttaa huonomman käyttökokemuksen?

        "Voit laskinta näpyttelemällä helposti tarkistaa mikä onnistuu ja mikä ei ja homma on aina kannattavaa kun saadaan tietoa keskitettyä ja taustaprosessointia pois päätelaitteista."

        Laskinta näpyttelemällä nopeimmat tiedonsiirtomenetelmät per sekunti vaikuttavat olevan rekallinen täynnä flash-muistia tai esimerkiksi lentokoneessa kuljetettava matkalaukku johon mahtuu 120TB.
        https://aws.amazon.com/snowmobile/
        https://www.theregister.co.uk/2017/09/19/ibm_cloud_mass_data_migration_appliance/

        Ainoa pienenpieni ongelma näissä tulee jos tahtoo pystyä käsittelemään dataa reaaliaikaisesti koska viive ja nopeus ovat kaksi eri ulottuvuutta nettiyhteyden tehokkuutta mitattaessa.

        "Jolloin jää tarve tehokkaalle prosessoinnille päätteessä"

        Taulukkolaskenta on kevyttä prosessointia kun datamäärät ovat niin vähäisiä. Jos dataa on enemmänkin niin sehän on väärinkäyttöä sitten, että sitä varten on tietysti tietokannat jotka ovat palvelimessa.

        "Josta kätevästi tulemme takaisin aiheeseen, eli energiatehokkaammat prosessorit joissa on verrattain vähemmän tehoa."

        Siihenhän sitä pyritään, että päätelaitteiden rautaa optimoidaan energiatehokkaaksi, laitteet littanaksi, akkukesto kestämään koko päivän, hinta halvaksi ja jne.

        Temppu on tiedetty kauan, että pidetään taustaprosessointi ja tallennus erillään päätelaitteista joilla ajetaan käyttöliittymää. 70-luvulla ei ollut päätteessä mitään prosessointia ja se oli silloin kustannustehokasta.

        80-luvulla tuli graafiset käyttöliittymät ja halvat koneet, että ongelmaksi tuli hitaat ja kalliit ja yhteydet. 90-luvun puolivälin jälkeen oli lähiverkkoja varten kaikki olennaiset asiat saatu ratkaistua ja vuosituhannen vaiheessa ainoa jäljellä oleva ongelma oli enää puutteet standardoinnissa kun renderöinti tapahtui standardilla tavalla palvelimessa joten oli joko sivulataukset, natiivisovellus tai sitten laajennoskomponentteja.

        Tuo hajauttaminen että päätelaitteet erillään palvelimista mahdollistaa tosi hyvän hyötysuhteen prosessoinnin jakamisessa.

        "Laskinta näpyttelemällä nopeimmat tiedonsiirtomenetelmät per sekunti vaikuttavat olevan rekallinen täynnä flash-muistia tai esimerkiksi lentokoneessa kuljetettava matkalaukku johon mahtuu 120TB."

        Eli ei niin mitään ongelmaa siirtää vaikka näytölle sopivaa kuvaa .


      • Oudoksuva kirjoitti:

        "Ei jää. Taulukkolaskennan prosessointi tapahtuu edustalla taustalla tapahtuu tallennus ja lataus. MS Office 365:lla tuo taisi vieläpä toimia niin, että tallentaa välittömästi ja OneDrive sitten synkronoi."

        Jolloin jää tarve tehokkaalle prosessoinnille päätteessä, vaikka vähemmän tallennustilaa tarvitaan. Josta kätevästi tulemme takaisin aiheeseen, eli energiatehokkaammat prosessorit joissa on verrattain vähemmän tehoa. Ne varmasti toimivat moniin tarkoituksiin, mutta on asioita jotka ovat vaikeita :)

        "Johan sitä oli jo Quake Worldissa 32 samanaikaista pelaajaa vuonna 1996. Hyvin siis onnistuu."

        Quake World ja Geforce Now eivät ole järkevästi vertailukelpoisia, nettipeleissä kuten Quakessa lähinnä synkronisoidaan hahmojen koordinaatit ja teot (esim. jos joku ampuu) siinä missä Geforce Now tyylisessä koko prosessointi tapahtuu etänä, näppäinpainallukset nauhoitetaan ja lähetetään etäpäätteelle joka renderöi pelin ja sitten lähettää sopivasti pakattuna mitä näytöllä pitäisi näkyä.

        Tässä siis vaikka ollaan päästy niin että pelit ovat oikeastaan pelattavia, mitään nopeampitempoisia pelejä on vaikea pelata koska reagointi pelaajaan on silti paljon hitaampaa kuin paikallinen prosessointi.

        Sama juttu muiden ohjelmien käyttöliittymissä, vaikkakin se on teoriassa mahdollista toteuttaa se luo mahdollisesti epämukavan viiveen jokaiselle asialle mitä tekee.

        "Ei pidä ulkoistaa mahdollisimman paljon vaan tieto pitää saada mahdollisimman paljon pois päätelaitteesta ja taustaprosessointi. Käyttöliittymä ja edustaprosessointi kannattaa pitää päätelaitteessa eikä kuormita niillä palvelinta."

        Valitettavasti alan olemaan koko ajan enemmän epävarma siitä, mitä sinä tarkoitat taustaprosessoinnilla ja mitä voi siirtää päätteestä ilman että aiheuttaa huonomman käyttökokemuksen?

        "Voit laskinta näpyttelemällä helposti tarkistaa mikä onnistuu ja mikä ei ja homma on aina kannattavaa kun saadaan tietoa keskitettyä ja taustaprosessointia pois päätelaitteista."

        Laskinta näpyttelemällä nopeimmat tiedonsiirtomenetelmät per sekunti vaikuttavat olevan rekallinen täynnä flash-muistia tai esimerkiksi lentokoneessa kuljetettava matkalaukku johon mahtuu 120TB.
        https://aws.amazon.com/snowmobile/
        https://www.theregister.co.uk/2017/09/19/ibm_cloud_mass_data_migration_appliance/

        Ainoa pienenpieni ongelma näissä tulee jos tahtoo pystyä käsittelemään dataa reaaliaikaisesti koska viive ja nopeus ovat kaksi eri ulottuvuutta nettiyhteyden tehokkuutta mitattaessa.

        "Quake World ja Geforce Now eivät ole järkevästi vertailukelpoisia, nettipeleissä kuten Quakessa lähinnä synkronisoidaan hahmojen koordinaatit ja teot (esim. jos joku ampuu) siinä missä Geforce Now tyylisessä koko prosessointi tapahtuu etänä, näppäinpainallukset nauhoitetaan ja lähetetään etäpäätteelle joka renderöi pelin ja sitten lähettää sopivasti pakattuna mitä näytöllä pitäisi näkyä. "

        Ei mitään järkeä, tuossa on latenssia. Kannattaa vain pitää se käyttöliittöliittymä ja edustaprosessointi päätelaitteessa ja taustaprosessointi ja tallennus palvelimessa. Muista että reaaliaikaisen kuvan piirto on käyttöliittymää.

        "Sama juttu muiden ohjelmien käyttöliittymissä, vaikkakin se on teoriassa mahdollista toteuttaa se luo mahdollisesti epämukavan viiveen jokaiselle asialle mitä tekee."

        Käyttöliittymää ei pidä siirtää palvelimeen vaan pitää päätelaitteessa ja välimuisti on keksitty. Ei siinä jää mitään viivettä. Viiveet liittyvät siihen kun palvelin renderöi näkymän, esim. suomi24:n sivulataus jossa palvelin renderöi viestit. Sen sijaan kun kirjoittaa tekstiä tähän niin päätelaite prosessoi sen.

        "Ei pidä ulkoistaa mahdollisimman paljon vaan tieto pitää saada mahdollisimman paljon pois päätelaitteesta ja taustaprosessointi. Käyttöliittymä ja edustaprosessointi kannattaa pitää päätelaitteessa eikä kuormita niillä palvelinta."

        Valitettavasti alan olemaan koko ajan enemmän epävarma siitä, mitä sinä tarkoitat taustaprosessoinnilla ja mitä voi siirtää päätteestä ilman että aiheuttaa huonomman käyttökokemuksen?

        Vaikka hakutoiminto. Renderöi valmiin videon tai muun vastaavan kun esikatselu näyttää hyvältä. Ohjelman kääntö, testien ajo, datan varastointi, hakutoiminnot, indeksoinnit, varmuuskopioinnit, datakompressiot, erilaisten viestien lähetykset, lataa suuremmasta datamäärästä tiedon käyttöliittymälle, kytkennät erikoisiin laitteisiin ja niille rajapinnat käyttöliittymästä käytettäväksi.

        Palvelin sopii myös käytännössä lähes minkä tahansa tehtävän ajamiseen mikä veisi käyttöliittymässä normaalioloissa yli sekunnin. Niin en oikein ymmrrä miksi yrität kokoajan viedä keskustelua johonkin käyttöliittymän piirtoon palvelimessa silloin on kyse millisekunneista. Ne ovat edustaprosessointia ja pidetään päätelaitteessa.


      • M-Kar kirjoitti:

        "Quake World ja Geforce Now eivät ole järkevästi vertailukelpoisia, nettipeleissä kuten Quakessa lähinnä synkronisoidaan hahmojen koordinaatit ja teot (esim. jos joku ampuu) siinä missä Geforce Now tyylisessä koko prosessointi tapahtuu etänä, näppäinpainallukset nauhoitetaan ja lähetetään etäpäätteelle joka renderöi pelin ja sitten lähettää sopivasti pakattuna mitä näytöllä pitäisi näkyä. "

        Ei mitään järkeä, tuossa on latenssia. Kannattaa vain pitää se käyttöliittöliittymä ja edustaprosessointi päätelaitteessa ja taustaprosessointi ja tallennus palvelimessa. Muista että reaaliaikaisen kuvan piirto on käyttöliittymää.

        "Sama juttu muiden ohjelmien käyttöliittymissä, vaikkakin se on teoriassa mahdollista toteuttaa se luo mahdollisesti epämukavan viiveen jokaiselle asialle mitä tekee."

        Käyttöliittymää ei pidä siirtää palvelimeen vaan pitää päätelaitteessa ja välimuisti on keksitty. Ei siinä jää mitään viivettä. Viiveet liittyvät siihen kun palvelin renderöi näkymän, esim. suomi24:n sivulataus jossa palvelin renderöi viestit. Sen sijaan kun kirjoittaa tekstiä tähän niin päätelaite prosessoi sen.

        "Ei pidä ulkoistaa mahdollisimman paljon vaan tieto pitää saada mahdollisimman paljon pois päätelaitteesta ja taustaprosessointi. Käyttöliittymä ja edustaprosessointi kannattaa pitää päätelaitteessa eikä kuormita niillä palvelinta."

        Valitettavasti alan olemaan koko ajan enemmän epävarma siitä, mitä sinä tarkoitat taustaprosessoinnilla ja mitä voi siirtää päätteestä ilman että aiheuttaa huonomman käyttökokemuksen?

        Vaikka hakutoiminto. Renderöi valmiin videon tai muun vastaavan kun esikatselu näyttää hyvältä. Ohjelman kääntö, testien ajo, datan varastointi, hakutoiminnot, indeksoinnit, varmuuskopioinnit, datakompressiot, erilaisten viestien lähetykset, lataa suuremmasta datamäärästä tiedon käyttöliittymälle, kytkennät erikoisiin laitteisiin ja niille rajapinnat käyttöliittymästä käytettäväksi.

        Palvelin sopii myös käytännössä lähes minkä tahansa tehtävän ajamiseen mikä veisi käyttöliittymässä normaalioloissa yli sekunnin. Niin en oikein ymmrrä miksi yrität kokoajan viedä keskustelua johonkin käyttöliittymän piirtoon palvelimessa silloin on kyse millisekunneista. Ne ovat edustaprosessointia ja pidetään päätelaitteessa.

        Tällä hetkellä ei ole vielä päästy tilanteeseen jossa saataisiin latenssi "korjattua" joten katson järkevämmäksi että tulevaisuudessakin siirretään lisää tehoja itse koneeseen jolloin ei tule ongelmia latenssin kanssa. Mutta esimerkiksi tallennus on järkevää siirtää muualle kuten nyt jo on tapahtunut :)

        En valitettavasti vieläkään näe mitään erityistä hyötyä siinä että saataisiin käytettävää laitetta halvennettua siirtämällä kalliimmat osat johonkin pysyvään paikkaan, silloin jos on mahdollista saada se laite tarpeeksi tehokkaaksi että se itse pyörittää. Joitain poikkeuksia tähän tosin löytyy mutta ne ovat harvemmassa :)


      • Oudoksuva kirjoitti:

        Tällä hetkellä ei ole vielä päästy tilanteeseen jossa saataisiin latenssi "korjattua" joten katson järkevämmäksi että tulevaisuudessakin siirretään lisää tehoja itse koneeseen jolloin ei tule ongelmia latenssin kanssa. Mutta esimerkiksi tallennus on järkevää siirtää muualle kuten nyt jo on tapahtunut :)

        En valitettavasti vieläkään näe mitään erityistä hyötyä siinä että saataisiin käytettävää laitetta halvennettua siirtämällä kalliimmat osat johonkin pysyvään paikkaan, silloin jos on mahdollista saada se laite tarpeeksi tehokkaaksi että se itse pyörittää. Joitain poikkeuksia tähän tosin löytyy mutta ne ovat harvemmassa :)

        "Tällä hetkellä ei ole vielä päästy tilanteeseen jossa saataisiin latenssi "korjattua" "

        Latenssiin vaikuttaa fysiikan lait mutta sitä matalaa latenssia ei tarvitse aina. On lähinnä käyttöliittymäpuoli se missä latenssilla on väliä.

        "En valitettavasti vieläkään näe mitään erityistä hyötyä siinä että saataisiin käytettävää laitetta halvennettua siirtämällä kalliimmat osat johonkin pysyvään paikkaan"

        Vaikka nyt semmoinen hyöty että onnistuu käyttämään kun ekosysteemien portinvartijat optimoivat päätelaitteet näin ja ihmiset ostokäyttäytymisellään ostavat sitä Microsoftia, Applea tai Googlea. Eihän siitä muuta seuraa kuin halvemmat laitteet, pienemmät latenssit, parempi suorituskyky, pidempi akkukesto, litteämmät läppärit ja vähemmän kaikennäköisiä ongelmia kun tarpeettomia toimintoja saadaan poistettua.

        Data kannattaa aina pitää keskitettynä ja dataan liittyvä prosessointi toki kannattaa pitää lähellä sitä. Ei mitään järkeä vaikka indeksoida palvelimessa olevaa dataa päätelaitteessa.


      • M-Kar kirjoitti:

        "Tällä hetkellä ei ole vielä päästy tilanteeseen jossa saataisiin latenssi "korjattua" "

        Latenssiin vaikuttaa fysiikan lait mutta sitä matalaa latenssia ei tarvitse aina. On lähinnä käyttöliittymäpuoli se missä latenssilla on väliä.

        "En valitettavasti vieläkään näe mitään erityistä hyötyä siinä että saataisiin käytettävää laitetta halvennettua siirtämällä kalliimmat osat johonkin pysyvään paikkaan"

        Vaikka nyt semmoinen hyöty että onnistuu käyttämään kun ekosysteemien portinvartijat optimoivat päätelaitteet näin ja ihmiset ostokäyttäytymisellään ostavat sitä Microsoftia, Applea tai Googlea. Eihän siitä muuta seuraa kuin halvemmat laitteet, pienemmät latenssit, parempi suorituskyky, pidempi akkukesto, litteämmät läppärit ja vähemmän kaikennäköisiä ongelmia kun tarpeettomia toimintoja saadaan poistettua.

        Data kannattaa aina pitää keskitettynä ja dataan liittyvä prosessointi toki kannattaa pitää lähellä sitä. Ei mitään järkeä vaikka indeksoida palvelimessa olevaa dataa päätelaitteessa.

        "Latenssiin vaikuttaa fysiikan lait mutta sitä matalaa latenssia ei tarvitse aina. On lähinnä käyttöliittymäpuoli se missä latenssilla on väliä."

        Jep, mutta mitä tehokkaammaksi tietokoneet kehittyvät, sitä enemmän voi tehdä "käyttöliittymäpuolella" ilman että tarvitsee odottaa :)

        "Vaikka nyt semmoinen hyöty että onnistuu käyttämään kun ekosysteemien portinvartijat optimoivat päätelaitteet näin ja ihmiset ostokäyttäytymisellään ostavat sitä Microsoftia, Applea tai Googlea. Eihän siitä muuta seuraa kuin halvemmat laitteet, pienemmät latenssit, parempi suorituskyky, pidempi akkukesto, litteämmät läppärit ja vähemmän kaikennäköisiä ongelmia kun tarpeettomia toimintoja saadaan poistettua."

        Parempi suorituskyky pitemmällä akunkestolla ohuemmalla laitteella on tavoitteena, mutta hyvin harvat ovat valmiita antamaan prosessoinnin ulkopuoliselle koska monessa asiassa se saattaa hidastaa käyttöä.

        "Data kannattaa aina pitää keskitettynä ja dataan liittyvä prosessointi toki kannattaa pitää lähellä sitä. Ei mitään järkeä vaikka indeksoida palvelimessa olevaa dataa päätelaitteessa."

        Indeksointi ja datan säilytys ovat hyvin erilaisia tehtäviä kuin itse datan prosessointi :)


      • Oudoksuva kirjoitti:

        "Latenssiin vaikuttaa fysiikan lait mutta sitä matalaa latenssia ei tarvitse aina. On lähinnä käyttöliittymäpuoli se missä latenssilla on väliä."

        Jep, mutta mitä tehokkaammaksi tietokoneet kehittyvät, sitä enemmän voi tehdä "käyttöliittymäpuolella" ilman että tarvitsee odottaa :)

        "Vaikka nyt semmoinen hyöty että onnistuu käyttämään kun ekosysteemien portinvartijat optimoivat päätelaitteet näin ja ihmiset ostokäyttäytymisellään ostavat sitä Microsoftia, Applea tai Googlea. Eihän siitä muuta seuraa kuin halvemmat laitteet, pienemmät latenssit, parempi suorituskyky, pidempi akkukesto, litteämmät läppärit ja vähemmän kaikennäköisiä ongelmia kun tarpeettomia toimintoja saadaan poistettua."

        Parempi suorituskyky pitemmällä akunkestolla ohuemmalla laitteella on tavoitteena, mutta hyvin harvat ovat valmiita antamaan prosessoinnin ulkopuoliselle koska monessa asiassa se saattaa hidastaa käyttöä.

        "Data kannattaa aina pitää keskitettynä ja dataan liittyvä prosessointi toki kannattaa pitää lähellä sitä. Ei mitään järkeä vaikka indeksoida palvelimessa olevaa dataa päätelaitteessa."

        Indeksointi ja datan säilytys ovat hyvin erilaisia tehtäviä kuin itse datan prosessointi :)

        "Jep, mutta mitä tehokkaammaksi tietokoneet kehittyvät, sitä enemmän voi tehdä "käyttöliittymäpuolella" ilman että tarvitsee odottaa :)"

        Toki. Aina kun tehoa saadaan 10x lisää niin se voi mahdollistaa jotain paremmin. Ainoastaan dataan liittyvä prosessointi pitää aina olla palvelimessa että dataa ei pidetä käyttöliittymäpuolella käsiteltävänä. Sehän johtaisi siihen että varmistuksetkin pitäisi tehdä päätelaitteissa ja silloin menee metsään ja rankasti.

        "Indeksointi ja datan säilytys ovat hyvin erilaisia tehtäviä kuin itse datan prosessointi :)"

        Indeksointi on datan prosessointia ja se prosessointi pitää juuri hoitaa siellä palvelimessa. Sen sijaan käyttöliittymässä tietysti kannattaa hoittaa kaikennäköiset esikatselut ja datan tarkastlelut kuten muukin käyttöliittymän ajo.


      • Bersel
        M-Kar kirjoitti:

        "Jep, mutta mitä tehokkaammaksi tietokoneet kehittyvät, sitä enemmän voi tehdä "käyttöliittymäpuolella" ilman että tarvitsee odottaa :)"

        Toki. Aina kun tehoa saadaan 10x lisää niin se voi mahdollistaa jotain paremmin. Ainoastaan dataan liittyvä prosessointi pitää aina olla palvelimessa että dataa ei pidetä käyttöliittymäpuolella käsiteltävänä. Sehän johtaisi siihen että varmistuksetkin pitäisi tehdä päätelaitteissa ja silloin menee metsään ja rankasti.

        "Indeksointi ja datan säilytys ovat hyvin erilaisia tehtäviä kuin itse datan prosessointi :)"

        Indeksointi on datan prosessointia ja se prosessointi pitää juuri hoitaa siellä palvelimessa. Sen sijaan käyttöliittymässä tietysti kannattaa hoittaa kaikennäköiset esikatselut ja datan tarkastlelut kuten muukin käyttöliittymän ajo.

        "Ainoastaan dataan liittyvä prosessointi pitää aina olla palvelimessa että dataa ei pidetä käyttöliittymäpuolella käsiteltävänä. Sehän johtaisi siihen että varmistuksetkin pitäisi tehdä päätelaitteissa ja silloin menee metsään ja rankasti."

        Yleensä kyllä datan prosessointi tehdään ihan siinä päätelaitteessa, koska yleensä käytössä on kunnolliset päätelaitteet ja vasteajat palvelinta käytettäessä olisivat käytettävyyden kannalta mahdottomia. Levy on toki kahdennettu ettei päivän työ mene hukkaan levyrikon takia ja varmuuskopiot ovat palvelimella.

        Silloin kun datamäärät ovat pieniä, laitteet poikkeuksellisen heikkotehoisia (mobiiliversiot) ja vasteajoilla ei ole väliä, voidaan toki kikkailla palvelimilla.


      • Bersel
        Bersel kirjoitti:

        "Ainoastaan dataan liittyvä prosessointi pitää aina olla palvelimessa että dataa ei pidetä käyttöliittymäpuolella käsiteltävänä. Sehän johtaisi siihen että varmistuksetkin pitäisi tehdä päätelaitteissa ja silloin menee metsään ja rankasti."

        Yleensä kyllä datan prosessointi tehdään ihan siinä päätelaitteessa, koska yleensä käytössä on kunnolliset päätelaitteet ja vasteajat palvelinta käytettäessä olisivat käytettävyyden kannalta mahdottomia. Levy on toki kahdennettu ettei päivän työ mene hukkaan levyrikon takia ja varmuuskopiot ovat palvelimella.

        Silloin kun datamäärät ovat pieniä, laitteet poikkeuksellisen heikkotehoisia (mobiiliversiot) ja vasteajoilla ei ole väliä, voidaan toki kikkailla palvelimilla.

        Tietokannat ja ehkä joissakin tilanteissa koodin kääntäminen ovat äkkiseltään ainoita asioita, mitä voisi palvelimella miettiä prosessoivansa.


      • Bersel kirjoitti:

        "Ainoastaan dataan liittyvä prosessointi pitää aina olla palvelimessa että dataa ei pidetä käyttöliittymäpuolella käsiteltävänä. Sehän johtaisi siihen että varmistuksetkin pitäisi tehdä päätelaitteissa ja silloin menee metsään ja rankasti."

        Yleensä kyllä datan prosessointi tehdään ihan siinä päätelaitteessa, koska yleensä käytössä on kunnolliset päätelaitteet ja vasteajat palvelinta käytettäessä olisivat käytettävyyden kannalta mahdottomia. Levy on toki kahdennettu ettei päivän työ mene hukkaan levyrikon takia ja varmuuskopiot ovat palvelimella.

        Silloin kun datamäärät ovat pieniä, laitteet poikkeuksellisen heikkotehoisia (mobiiliversiot) ja vasteajoilla ei ole väliä, voidaan toki kikkailla palvelimilla.

        "Yleensä kyllä datan prosessointi tehdään ihan siinä päätelaitteessa, koska yleensä käytössä on kunnolliset päätelaitteet ja vasteajat palvelinta käytettäessä olisivat käytettävyyden kannalta mahdottomia."

        No yleensä ei, päinvastoin. Päätelaitteessa tehtävä prosessointi liittyy käytännössä aina johonkin todella ikivanhoihin ja isoihin ohjelmiin joita ei ole vielä uusittu.

        Palvelin ei mitenkään vie vasteaikaa pois käyttöliittymästä. Jostain syystä tunnut kuvittelevan, että käyttöliittymään tulisi jotain vasteita kun palvelin prosessoi dataa.

        "Silloin kun datamäärät ovat pieniä, laitteet poikkeuksellisen heikkotehoisia (mobiiliversiot) ja vasteajoilla ei ole väliä, voidaan toki kikkailla palvelimilla."

        Miksi suuri datamäärä tässä on huono asia? Hakee vaikka googlella jonkun kuvan ja palvelin rouhii tulokset heti?

        "Tietokannat ja ehkä joissakin tilanteissa koodin kääntäminen ovat äkkiseltään ainoita asioita, mitä voisi palvelimella miettiä prosessoivansa."

        Miten olisi vaikka renderöinti? Tai vaikka se että käsittelee kuvaa ja videota kun katselee päätelaitteessa reaaliajassa miltä näyttää ja sitten klikkaa palvelimen rouhimaan. Ja kun datamassat on siellä niin datakompressio myös. Tai miten olisi vaikka testien ajo? Tai haetaan vaikka geneettisellä algoritmilla ideaalinen malli vaikka moottorille? On kerätty antureilla vaikka 500 teraa dataa ja prosessoidaan niistä mallit johonkin tekoälysovellukseen? Varmuuskopiointi? Tiedon haku?

        Melkein mikä tahansa kuviteltava sovellus tarkoittaa että päätelaitteessa olisi naurettavan vähäisiä datamääriä. Lähes verrannollista ruudulla näkyviin tekstikenttiin tai pikseleihin.


      • Bersel
        M-Kar kirjoitti:

        "Yleensä kyllä datan prosessointi tehdään ihan siinä päätelaitteessa, koska yleensä käytössä on kunnolliset päätelaitteet ja vasteajat palvelinta käytettäessä olisivat käytettävyyden kannalta mahdottomia."

        No yleensä ei, päinvastoin. Päätelaitteessa tehtävä prosessointi liittyy käytännössä aina johonkin todella ikivanhoihin ja isoihin ohjelmiin joita ei ole vielä uusittu.

        Palvelin ei mitenkään vie vasteaikaa pois käyttöliittymästä. Jostain syystä tunnut kuvittelevan, että käyttöliittymään tulisi jotain vasteita kun palvelin prosessoi dataa.

        "Silloin kun datamäärät ovat pieniä, laitteet poikkeuksellisen heikkotehoisia (mobiiliversiot) ja vasteajoilla ei ole väliä, voidaan toki kikkailla palvelimilla."

        Miksi suuri datamäärä tässä on huono asia? Hakee vaikka googlella jonkun kuvan ja palvelin rouhii tulokset heti?

        "Tietokannat ja ehkä joissakin tilanteissa koodin kääntäminen ovat äkkiseltään ainoita asioita, mitä voisi palvelimella miettiä prosessoivansa."

        Miten olisi vaikka renderöinti? Tai vaikka se että käsittelee kuvaa ja videota kun katselee päätelaitteessa reaaliajassa miltä näyttää ja sitten klikkaa palvelimen rouhimaan. Ja kun datamassat on siellä niin datakompressio myös. Tai miten olisi vaikka testien ajo? Tai haetaan vaikka geneettisellä algoritmilla ideaalinen malli vaikka moottorille? On kerätty antureilla vaikka 500 teraa dataa ja prosessoidaan niistä mallit johonkin tekoälysovellukseen? Varmuuskopiointi? Tiedon haku?

        Melkein mikä tahansa kuviteltava sovellus tarkoittaa että päätelaitteessa olisi naurettavan vähäisiä datamääriä. Lähes verrannollista ruudulla näkyviin tekstikenttiin tai pikseleihin.

        "Miten olisi vaikka renderöinti?"

        Kysy vaikka DreamWorksiltä, niin kertovat että animaattoreilla on tehokkaat työasemat. Sitten taas joku avatar vaatii vielä paljon enemmän ja käytetään serverifarmeja. Lukumääräisesti suurin osa projekteista tehdään kuitenkin ihan paikallisesti tehokkaalla työasemalla ja palvelinten "rouskuttaminen" vastaisi useimmiten sitä kuin jos ostaisi Scanian rekka-auton satunnaiseen peräkärryn vetämiseen.

        "Hakee vaikka googlella jonkun kuvan ja palvelin rouhii tulokset heti? "

        Google ei rouhi, renderöi tai suorita dataa, vaan ihan sitä omaa tietokantasoftaansa ja osoittaa hakijalle linkit. Jos et ymmärrä mikä ero on vaikka ohjelman linkin näyttämisellä ja ohjelman suorittamisella tai videon renderöinnillä vs. videolinkin näyttämisellä, en voi auttaa.

        "Tai haetaan vaikka geneettisellä algoritmilla ideaalinen malli vaikka moottorille? On kerätty antureilla vaikka 500 teraa dataa ja prosessoidaan niistä mallit johonkin tekoälysovellukseen?"

        Ei ole mitään tekemistä kotikäyttäjien, useimpien yrityskäyttäjien tai Windows 10:n käyttötarkoituksen kanssa. Lukumääräisesti kuvailemasi tehtävät ovat marginaalin tekemää touhua ja työkalut usein yrityksen itsensä kehittämiä. Tästä esimerkkinä vaikka Disney jonka itse kehittämä järjestelmä oikeasti vaatii jo supertietokoneen.

        Jokainen jonka aivot ovat tällä planeetalla ymmärtänee, että vaikka mitä ilmatieteenlaitos tekee supertietokoneella ja mitä kotikäyttäjä omalla koneellaan, ovat aivan erilaisia asioita ja toisen perusteleminen toisella ei nyt vaan ole kovin järkevää.

        Yleisimmin käytetyt ohjelmat toimivat niin, että käytännössä kaikki prosessointi tehdään paikallisesti. Nettiselaimella sitten tehdään tietokannnoista (vaikka käyttäjä ei sitä aina välttämättä hahmota) hakuja, kuten vaikka listataan kaupan tuotteita tietyin hakuehdoin ja niin edelleen, mutta tämä ei mitenkään tarkoita, että vaikka kuvankäsittelyn prosessointi, 3D-suunnittelu tai vastaavat pitäisi siirtää jonnekin palvelimelle, kun kerran peruskäyttäjille tarkoitetut ohjelmat ja palvelut eivät yleensä edes tarjoa tällaista vaihtoehtoa kuin korkeintaan tietyissä erityistapauksissa.


      • Bersel kirjoitti:

        "Miten olisi vaikka renderöinti?"

        Kysy vaikka DreamWorksiltä, niin kertovat että animaattoreilla on tehokkaat työasemat. Sitten taas joku avatar vaatii vielä paljon enemmän ja käytetään serverifarmeja. Lukumääräisesti suurin osa projekteista tehdään kuitenkin ihan paikallisesti tehokkaalla työasemalla ja palvelinten "rouskuttaminen" vastaisi useimmiten sitä kuin jos ostaisi Scanian rekka-auton satunnaiseen peräkärryn vetämiseen.

        "Hakee vaikka googlella jonkun kuvan ja palvelin rouhii tulokset heti? "

        Google ei rouhi, renderöi tai suorita dataa, vaan ihan sitä omaa tietokantasoftaansa ja osoittaa hakijalle linkit. Jos et ymmärrä mikä ero on vaikka ohjelman linkin näyttämisellä ja ohjelman suorittamisella tai videon renderöinnillä vs. videolinkin näyttämisellä, en voi auttaa.

        "Tai haetaan vaikka geneettisellä algoritmilla ideaalinen malli vaikka moottorille? On kerätty antureilla vaikka 500 teraa dataa ja prosessoidaan niistä mallit johonkin tekoälysovellukseen?"

        Ei ole mitään tekemistä kotikäyttäjien, useimpien yrityskäyttäjien tai Windows 10:n käyttötarkoituksen kanssa. Lukumääräisesti kuvailemasi tehtävät ovat marginaalin tekemää touhua ja työkalut usein yrityksen itsensä kehittämiä. Tästä esimerkkinä vaikka Disney jonka itse kehittämä järjestelmä oikeasti vaatii jo supertietokoneen.

        Jokainen jonka aivot ovat tällä planeetalla ymmärtänee, että vaikka mitä ilmatieteenlaitos tekee supertietokoneella ja mitä kotikäyttäjä omalla koneellaan, ovat aivan erilaisia asioita ja toisen perusteleminen toisella ei nyt vaan ole kovin järkevää.

        Yleisimmin käytetyt ohjelmat toimivat niin, että käytännössä kaikki prosessointi tehdään paikallisesti. Nettiselaimella sitten tehdään tietokannnoista (vaikka käyttäjä ei sitä aina välttämättä hahmota) hakuja, kuten vaikka listataan kaupan tuotteita tietyin hakuehdoin ja niin edelleen, mutta tämä ei mitenkään tarkoita, että vaikka kuvankäsittelyn prosessointi, 3D-suunnittelu tai vastaavat pitäisi siirtää jonnekin palvelimelle, kun kerran peruskäyttäjille tarkoitetut ohjelmat ja palvelut eivät yleensä edes tarjoa tällaista vaihtoehtoa kuin korkeintaan tietyissä erityistapauksissa.

        "Kysy vaikka DreamWorksiltä, niin kertovat että animaattoreilla on tehokkaat työasemat."

        Kertovat myös että heillä on ikivanhat ohjelmat.

        "ja palvelinten "rouskuttaminen" vastaisi useimmiten sitä kuin jos ostaisi Scanian rekka-auton satunnaiseen peräkärryn vetämiseen."

        Palveliresursseista nykyään maksetaan käytön mukaan. Otetaan vaikka miljoona GPU corea viikoksi ja rendataan elokuva.


        "Google ei rouhi, renderöi tai suorita dataa"

        Kyllä vaan tekee ja paljon.

        "vaan ihan sitä omaa tietokantasoftaansa ja osoittaa hakijalle linkit."

        Se että tämä onnistuu, tarvitee sitä datan käsittelyä.

        "Ei ole mitään tekemistä kotikäyttäjien, useimpien yrityskäyttäjien tai Windows 10:n käyttötarkoituksen kanssa."

        Kyllä Windowsia käytetään tietokoneavusteisessa suunnittelussa käyttöliittymänä.

        "Lukumääräisesti kuvailemasi tehtävät ovat marginaalin tekemää touhua"

        No CAD on vähän marginaalia niinkuin vaikka renderöinti. Yleisiä juttuja on vaikka sähköposti tai yleensäkin viestintä pikaviestimillä kuten Facebook, Hangouts, Slack tai Skype. Tai vaikka taloushallinto, tuntikirjanpito, asiakirjojen käsittely toimistopaketilla tai asiakkuuden hallinta. Jostain kumman syystä yrität aina kaivella jotain mediajuttuja joka välissä mutta tosiasiassa kuvien, niin vektori kuin bittikarttojen käsittely on ainoa yleinen median käsitely ja Adobe Indesign ja Photoshop CC ovat ikivanhoja dinosaurusohjelmia joiden uusiminen ei tapahdu hetkessä. Harvinainen poikkeustapaus josta maksetaan kuukausi- tai vuosimaksua.

        "Yleisimmin käytetyt ohjelmat toimivat niin, että käytännössä kaikki prosessointi tehdään paikallisesti."

        Ylivoimaisesti suosituin kotikäyttäjien käyttämä ohjelmisto on Facebook. Ei se prosessoi paikallisesti paljoa vaan jos käyttäjä vaikka lähettää kuvan niin kyllä se Facebook sen pakkailee katseltavaan muotoon ja etsii siitä naamat ja muuta vastaavaa prosessointia. Tuollaisilla datamäärillä ei edes paikallisesti kannata ajatella hoitavansa paljoa vaan lähinnä pitää välimuistissa. Googlen sovellukset kuten Google haku tai Youtube ovat todella suosittuja. Youtube niinikään kompressoi palvelimessa videoita ja lajittelee. Mutta Youtubea ei mielestäsi vissiin käytä kukaan vaan keksit jonkun yleisemmän...?

        "Nettiselaimella sitten tehdään tietokannnoista (vaikka käyttäjä ei sitä aina välttämättä hahmota) hakuja, kuten vaikka listataan kaupan tuotteita tietyin hakuehdoin ja niin edelleen, mutta tämä ei mitenkään tarkoita, että vaikka kuvankäsittelyn prosessointi, 3D-suunnittelu tai vastaavat pitäisi siirtää jonnekin palvelimelle, kun kerran peruskäyttäjille tarkoitetut ohjelmat ja palvelut eivät yleensä edes tarjoa tällaista vaihtoehtoa kuin korkeintaan tietyissä erityistapauksissa."

        Tietysti kannattaa siirtää palvelimelle ettei päätelaitteita kuormiteta tausta-ajoilla ja varmistuksilla ja että ei ole datat levällään. Kyllä tietokoneavusteisessa suunnittelussa käsitellään valtavasti dataa palvelimella ja melkoisen suuri osa elokuvista renderöity palvelimilla vuosikymmenien ajan.

        Mikähän kumman ongelma siinä palvelimessa nyt mahtaa olla sinulle? Aivan itsestään selviä perusasioita tietotekniikassa ja ylivoimaisesti suurin osa ohjelmista tehdään palvelimeen. Koita ymmärtää, että noin 12v sitten uusien sovellusten tekeminen läppäreille ja pöytäkoneille muuten kuin selaintekniikalla katosi lähes täysin. Jotain vanhoja ylläpidetään mutta mitään uutta ei tehty ellei ollut pakko. Ja pakottavat tarpeet poistui niinikään vuosikausia sitten.


      • M-Kar kirjoitti:

        "Jep, mutta mitä tehokkaammaksi tietokoneet kehittyvät, sitä enemmän voi tehdä "käyttöliittymäpuolella" ilman että tarvitsee odottaa :)"

        Toki. Aina kun tehoa saadaan 10x lisää niin se voi mahdollistaa jotain paremmin. Ainoastaan dataan liittyvä prosessointi pitää aina olla palvelimessa että dataa ei pidetä käyttöliittymäpuolella käsiteltävänä. Sehän johtaisi siihen että varmistuksetkin pitäisi tehdä päätelaitteissa ja silloin menee metsään ja rankasti.

        "Indeksointi ja datan säilytys ovat hyvin erilaisia tehtäviä kuin itse datan prosessointi :)"

        Indeksointi on datan prosessointia ja se prosessointi pitää juuri hoitaa siellä palvelimessa. Sen sijaan käyttöliittymässä tietysti kannattaa hoittaa kaikennäköiset esikatselut ja datan tarkastlelut kuten muukin käyttöliittymän ajo.

        "Toki. Aina kun tehoa saadaan 10x lisää niin se voi mahdollistaa jotain paremmin. Ainoastaan dataan liittyvä prosessointi pitää aina olla palvelimessa että dataa ei pidetä käyttöliittymäpuolella käsiteltävänä. Sehän johtaisi siihen että varmistuksetkin pitäisi tehdä päätelaitteissa ja silloin menee metsään ja rankasti."

        Datan prosessointi ja sen tarkistaminen onko käyttäjällä oikeutta saada kyseistä dataa (prosessointiin tai muuten) ovat kaksi eri asiaa :)

        Hyvänä esimerkkinä, jos olen esimerkiksi tekemässä käyttäytymismallia asiakkaista...
        On yksi asia tarkistaa onko minulla oikeus päästä kyseisiin tietoihin käsiksi (se pääsääntöisesti kannattaa olla työkoneen ulkopuolella) joka ei vaadi kovinkaan suurta prosessointia (eikä siten tuo huomattavaa viivettä verrattuna tiedon hakemiseen. Mutta toisaalta on erillinen asia tehdäänkö itse mallinnus omalla työkoneellani vai serverillä.


      • Oudoksuva kirjoitti:

        "Toki. Aina kun tehoa saadaan 10x lisää niin se voi mahdollistaa jotain paremmin. Ainoastaan dataan liittyvä prosessointi pitää aina olla palvelimessa että dataa ei pidetä käyttöliittymäpuolella käsiteltävänä. Sehän johtaisi siihen että varmistuksetkin pitäisi tehdä päätelaitteissa ja silloin menee metsään ja rankasti."

        Datan prosessointi ja sen tarkistaminen onko käyttäjällä oikeutta saada kyseistä dataa (prosessointiin tai muuten) ovat kaksi eri asiaa :)

        Hyvänä esimerkkinä, jos olen esimerkiksi tekemässä käyttäytymismallia asiakkaista...
        On yksi asia tarkistaa onko minulla oikeus päästä kyseisiin tietoihin käsiksi (se pääsääntöisesti kannattaa olla työkoneen ulkopuolella) joka ei vaadi kovinkaan suurta prosessointia (eikä siten tuo huomattavaa viivettä verrattuna tiedon hakemiseen. Mutta toisaalta on erillinen asia tehdäänkö itse mallinnus omalla työkoneellani vai serverillä.

        "Datan prosessointi ja sen tarkistaminen onko käyttäjällä oikeutta saada kyseistä dataa (prosessointiin tai muuten) ovat kaksi eri asiaa :)"

        Toki. Ja siinä ei ole mitään järkeä, että data siirretään päätelaitteeseen prosessoitavaksi jossa sitä varmistellaan ja sitten siirretään siitä takaisin palvelimelle. Saman tien pitää palvelimella kaiken aikaa eikä liikuttele tarpeettomasti ja siirtää käyttöliittymään tarvittavia määriä sen käyttöä varten.

        "Hyvänä esimerkkinä, jos olen esimerkiksi tekemässä käyttäytymismallia asiakkaista...
        On yksi asia tarkistaa onko minulla oikeus päästä kyseisiin tietoihin käsiksi (se pääsääntöisesti kannattaa olla työkoneen ulkopuolella) joka ei vaadi kovinkaan suurta prosessointia (eikä siten tuo huomattavaa viivettä verrattuna tiedon hakemiseen. Mutta toisaalta on erillinen asia tehdäänkö itse mallinnus omalla työkoneellani vai serverillä."

        Tiedon prosessointi palvelimella ei lisää viivettä. Ne mitä tarvitsee ladata käyttöliittymälle ovat aika vähäisiä.


      • M-Kar kirjoitti:

        "Datan prosessointi ja sen tarkistaminen onko käyttäjällä oikeutta saada kyseistä dataa (prosessointiin tai muuten) ovat kaksi eri asiaa :)"

        Toki. Ja siinä ei ole mitään järkeä, että data siirretään päätelaitteeseen prosessoitavaksi jossa sitä varmistellaan ja sitten siirretään siitä takaisin palvelimelle. Saman tien pitää palvelimella kaiken aikaa eikä liikuttele tarpeettomasti ja siirtää käyttöliittymään tarvittavia määriä sen käyttöä varten.

        "Hyvänä esimerkkinä, jos olen esimerkiksi tekemässä käyttäytymismallia asiakkaista...
        On yksi asia tarkistaa onko minulla oikeus päästä kyseisiin tietoihin käsiksi (se pääsääntöisesti kannattaa olla työkoneen ulkopuolella) joka ei vaadi kovinkaan suurta prosessointia (eikä siten tuo huomattavaa viivettä verrattuna tiedon hakemiseen. Mutta toisaalta on erillinen asia tehdäänkö itse mallinnus omalla työkoneellani vai serverillä."

        Tiedon prosessointi palvelimella ei lisää viivettä. Ne mitä tarvitsee ladata käyttöliittymälle ovat aika vähäisiä.

        "Toki. Ja siinä ei ole mitään järkeä, että data siirretään päätelaitteeseen prosessoitavaksi jossa sitä varmistellaan ja sitten siirretään siitä takaisin palvelimelle. Saman tien pitää palvelimella kaiken aikaa eikä liikuttele tarpeettomasti ja siirtää käyttöliittymään tarvittavia määriä sen käyttöä varten."

        Tossa lähinnä on "false dichotomy"-verrokki. Siis vertailuna ei olisi että molemmat tehdään koneella, mutta että kun oikeus päästä tietoon on tarkastettu sen voi ladata koneelle jos tarvitsee sitä pitemmän aikaa, esim. erilaisia malleja testatessa missä vain, vaikka esimerkiksi lentokentällä ei olisi langatonta verkkoa.
        On asioita joissa kannattaa olla tyyliin serveri tai supertietokone (esim. salesforce, vaikka Disneyn vanha renderöintifarmi jne.). Mutta tällä hetkellä normaalikäytössä tehokkaalla kannettavalla pärjää, enkä itse olisi valmis luopumaan sen tehosta :)

        "Tiedon prosessointi palvelimella ei lisää viivettä. Ne mitä tarvitsee ladata käyttöliittymälle ovat aika vähäisiä."

        Riippuu ihan siitä mitä tekee ja miten paljon tarvitsee leikkiä/säätää dataa eri variaatioita varten.
        Se asiakaskäyttäytymismallinnus mistä mainitsin oli eräs asia jonka tein osana työtäni ja serveripohjainen prosessointi olisi tuntunut hidastukselta.


      • Oudoksuva
        Oudoksuva kirjoitti:

        "Toki. Ja siinä ei ole mitään järkeä, että data siirretään päätelaitteeseen prosessoitavaksi jossa sitä varmistellaan ja sitten siirretään siitä takaisin palvelimelle. Saman tien pitää palvelimella kaiken aikaa eikä liikuttele tarpeettomasti ja siirtää käyttöliittymään tarvittavia määriä sen käyttöä varten."

        Tossa lähinnä on "false dichotomy"-verrokki. Siis vertailuna ei olisi että molemmat tehdään koneella, mutta että kun oikeus päästä tietoon on tarkastettu sen voi ladata koneelle jos tarvitsee sitä pitemmän aikaa, esim. erilaisia malleja testatessa missä vain, vaikka esimerkiksi lentokentällä ei olisi langatonta verkkoa.
        On asioita joissa kannattaa olla tyyliin serveri tai supertietokone (esim. salesforce, vaikka Disneyn vanha renderöintifarmi jne.). Mutta tällä hetkellä normaalikäytössä tehokkaalla kannettavalla pärjää, enkä itse olisi valmis luopumaan sen tehosta :)

        "Tiedon prosessointi palvelimella ei lisää viivettä. Ne mitä tarvitsee ladata käyttöliittymälle ovat aika vähäisiä."

        Riippuu ihan siitä mitä tekee ja miten paljon tarvitsee leikkiä/säätää dataa eri variaatioita varten.
        Se asiakaskäyttäytymismallinnus mistä mainitsin oli eräs asia jonka tein osana työtäni ja serveripohjainen prosessointi olisi tuntunut hidastukselta.

        Vielä pieni disclaimer. Siis olin tekemässä sitä prototyyppiä asiakasmallinnuksesta. Sen jälkeen kun olin saanut testattua datalla miten eri mallit (joita jouduin säätämään jokaisen ajokerran välissä) toimivat vasta alettiin katsomaan miten sen voisi implementoida firman sisäverkkoon.


      • Oudoksuva kirjoitti:

        "Toki. Ja siinä ei ole mitään järkeä, että data siirretään päätelaitteeseen prosessoitavaksi jossa sitä varmistellaan ja sitten siirretään siitä takaisin palvelimelle. Saman tien pitää palvelimella kaiken aikaa eikä liikuttele tarpeettomasti ja siirtää käyttöliittymään tarvittavia määriä sen käyttöä varten."

        Tossa lähinnä on "false dichotomy"-verrokki. Siis vertailuna ei olisi että molemmat tehdään koneella, mutta että kun oikeus päästä tietoon on tarkastettu sen voi ladata koneelle jos tarvitsee sitä pitemmän aikaa, esim. erilaisia malleja testatessa missä vain, vaikka esimerkiksi lentokentällä ei olisi langatonta verkkoa.
        On asioita joissa kannattaa olla tyyliin serveri tai supertietokone (esim. salesforce, vaikka Disneyn vanha renderöintifarmi jne.). Mutta tällä hetkellä normaalikäytössä tehokkaalla kannettavalla pärjää, enkä itse olisi valmis luopumaan sen tehosta :)

        "Tiedon prosessointi palvelimella ei lisää viivettä. Ne mitä tarvitsee ladata käyttöliittymälle ovat aika vähäisiä."

        Riippuu ihan siitä mitä tekee ja miten paljon tarvitsee leikkiä/säätää dataa eri variaatioita varten.
        Se asiakaskäyttäytymismallinnus mistä mainitsin oli eräs asia jonka tein osana työtäni ja serveripohjainen prosessointi olisi tuntunut hidastukselta.

        "Siis vertailuna ei olisi että molemmat tehdään koneella, mutta että kun oikeus päästä tietoon on tarkastettu sen voi ladata koneelle jos tarvitsee sitä pitemmän aikaa, esim. erilaisia malleja testatessa missä vain, vaikka esimerkiksi lentokentällä ei olisi langatonta verkkoa."

        Kyllä offline toiminallisuus on ihan perusjuttuja, ei muuta asiaa mihinkään.

        "Riippuu ihan siitä mitä tekee ja miten paljon tarvitsee leikkiä/säätää dataa eri variaatioita varten."

        Kerro jokin esimerkki että miksi.

        "Se asiakaskäyttäytymismallinnus mistä mainitsin oli eräs asia jonka tein osana työtäni ja serveripohjainen prosessointi olisi tuntunut hidastukselta."

        Miten? Palvelimellahan noita just prosessoidaan kun keräävät analytiikkatietoa. Tuo on oikeastaan reaaliaikaista että saa suoraan tiedon.

        "Vielä pieni disclaimer. Siis olin tekemässä sitä prototyyppiä asiakasmallinnuksesta. Sen jälkeen kun olin saanut testattua datalla miten eri mallit (joita jouduin säätämään jokaisen ajokerran välissä) toimivat vasta alettiin katsomaan miten sen voisi implementoida firman sisäverkkoon."

        Onpas teillä hidas sisäverkko. Kyllä sitä nyt pitäisi mikä tahana käppyrä päivittyä välittömästi kun muuttaa numeroa.

        Laske nyt huolella monta kilotavua tarvitsee siirtää ja miltä etäisyydeltä, että mitä siinä nyt menee aikaa. Mulla näkyy olevan tässä langattomasti sisäverkossa 3ms latenssi.


      • M-Kar kirjoitti:

        "Siis vertailuna ei olisi että molemmat tehdään koneella, mutta että kun oikeus päästä tietoon on tarkastettu sen voi ladata koneelle jos tarvitsee sitä pitemmän aikaa, esim. erilaisia malleja testatessa missä vain, vaikka esimerkiksi lentokentällä ei olisi langatonta verkkoa."

        Kyllä offline toiminallisuus on ihan perusjuttuja, ei muuta asiaa mihinkään.

        "Riippuu ihan siitä mitä tekee ja miten paljon tarvitsee leikkiä/säätää dataa eri variaatioita varten."

        Kerro jokin esimerkki että miksi.

        "Se asiakaskäyttäytymismallinnus mistä mainitsin oli eräs asia jonka tein osana työtäni ja serveripohjainen prosessointi olisi tuntunut hidastukselta."

        Miten? Palvelimellahan noita just prosessoidaan kun keräävät analytiikkatietoa. Tuo on oikeastaan reaaliaikaista että saa suoraan tiedon.

        "Vielä pieni disclaimer. Siis olin tekemässä sitä prototyyppiä asiakasmallinnuksesta. Sen jälkeen kun olin saanut testattua datalla miten eri mallit (joita jouduin säätämään jokaisen ajokerran välissä) toimivat vasta alettiin katsomaan miten sen voisi implementoida firman sisäverkkoon."

        Onpas teillä hidas sisäverkko. Kyllä sitä nyt pitäisi mikä tahana käppyrä päivittyä välittömästi kun muuttaa numeroa.

        Laske nyt huolella monta kilotavua tarvitsee siirtää ja miltä etäisyydeltä, että mitä siinä nyt menee aikaa. Mulla näkyy olevan tässä langattomasti sisäverkossa 3ms latenssi.

        "Kerro jokin esimerkki että miksi."

        Koska en jaksa odottaa serverilatenssia jokaisessa muutoksessa kärsimättömänä käyttäjänä.

        "Miten? Palvelimellahan noita just prosessoidaan kun keräävät analytiikkatietoa. Tuo on oikeastaan reaaliaikaista että saa suoraan tiedon."

        Lopullinen malli, kyllä se toimii serverillä. Mutta prototyyppejä varten on helpompi ladata esim. parin päivän tai kuukauden datat jokaisesta kosketuspisteestä ja leikkiä niillä yhdistäen eri tavalla jotta saadaan verrattua tulosta niihinn mikä tuli multivariaatti-regressiomallista.

        "Onpas teillä hidas sisäverkko. Kyllä sitä nyt pitäisi mikä tahana käppyrä päivittyä välittömästi kun muuttaa numeroa."

        Kyseessä ei ole firman ainoa toimisto ja datan tallennus on pääosin pilvessä. Valitettavasti oikeassa elämässä ei asiat usein toimi optimaalisesti. :)


      • 102030405060
        M-Kar kirjoitti:

        "Kysy vaikka DreamWorksiltä, niin kertovat että animaattoreilla on tehokkaat työasemat."

        Kertovat myös että heillä on ikivanhat ohjelmat.

        "ja palvelinten "rouskuttaminen" vastaisi useimmiten sitä kuin jos ostaisi Scanian rekka-auton satunnaiseen peräkärryn vetämiseen."

        Palveliresursseista nykyään maksetaan käytön mukaan. Otetaan vaikka miljoona GPU corea viikoksi ja rendataan elokuva.


        "Google ei rouhi, renderöi tai suorita dataa"

        Kyllä vaan tekee ja paljon.

        "vaan ihan sitä omaa tietokantasoftaansa ja osoittaa hakijalle linkit."

        Se että tämä onnistuu, tarvitee sitä datan käsittelyä.

        "Ei ole mitään tekemistä kotikäyttäjien, useimpien yrityskäyttäjien tai Windows 10:n käyttötarkoituksen kanssa."

        Kyllä Windowsia käytetään tietokoneavusteisessa suunnittelussa käyttöliittymänä.

        "Lukumääräisesti kuvailemasi tehtävät ovat marginaalin tekemää touhua"

        No CAD on vähän marginaalia niinkuin vaikka renderöinti. Yleisiä juttuja on vaikka sähköposti tai yleensäkin viestintä pikaviestimillä kuten Facebook, Hangouts, Slack tai Skype. Tai vaikka taloushallinto, tuntikirjanpito, asiakirjojen käsittely toimistopaketilla tai asiakkuuden hallinta. Jostain kumman syystä yrität aina kaivella jotain mediajuttuja joka välissä mutta tosiasiassa kuvien, niin vektori kuin bittikarttojen käsittely on ainoa yleinen median käsitely ja Adobe Indesign ja Photoshop CC ovat ikivanhoja dinosaurusohjelmia joiden uusiminen ei tapahdu hetkessä. Harvinainen poikkeustapaus josta maksetaan kuukausi- tai vuosimaksua.

        "Yleisimmin käytetyt ohjelmat toimivat niin, että käytännössä kaikki prosessointi tehdään paikallisesti."

        Ylivoimaisesti suosituin kotikäyttäjien käyttämä ohjelmisto on Facebook. Ei se prosessoi paikallisesti paljoa vaan jos käyttäjä vaikka lähettää kuvan niin kyllä se Facebook sen pakkailee katseltavaan muotoon ja etsii siitä naamat ja muuta vastaavaa prosessointia. Tuollaisilla datamäärillä ei edes paikallisesti kannata ajatella hoitavansa paljoa vaan lähinnä pitää välimuistissa. Googlen sovellukset kuten Google haku tai Youtube ovat todella suosittuja. Youtube niinikään kompressoi palvelimessa videoita ja lajittelee. Mutta Youtubea ei mielestäsi vissiin käytä kukaan vaan keksit jonkun yleisemmän...?

        "Nettiselaimella sitten tehdään tietokannnoista (vaikka käyttäjä ei sitä aina välttämättä hahmota) hakuja, kuten vaikka listataan kaupan tuotteita tietyin hakuehdoin ja niin edelleen, mutta tämä ei mitenkään tarkoita, että vaikka kuvankäsittelyn prosessointi, 3D-suunnittelu tai vastaavat pitäisi siirtää jonnekin palvelimelle, kun kerran peruskäyttäjille tarkoitetut ohjelmat ja palvelut eivät yleensä edes tarjoa tällaista vaihtoehtoa kuin korkeintaan tietyissä erityistapauksissa."

        Tietysti kannattaa siirtää palvelimelle ettei päätelaitteita kuormiteta tausta-ajoilla ja varmistuksilla ja että ei ole datat levällään. Kyllä tietokoneavusteisessa suunnittelussa käsitellään valtavasti dataa palvelimella ja melkoisen suuri osa elokuvista renderöity palvelimilla vuosikymmenien ajan.

        Mikähän kumman ongelma siinä palvelimessa nyt mahtaa olla sinulle? Aivan itsestään selviä perusasioita tietotekniikassa ja ylivoimaisesti suurin osa ohjelmista tehdään palvelimeen. Koita ymmärtää, että noin 12v sitten uusien sovellusten tekeminen läppäreille ja pöytäkoneille muuten kuin selaintekniikalla katosi lähes täysin. Jotain vanhoja ylläpidetään mutta mitään uutta ei tehty ellei ollut pakko. Ja pakottavat tarpeet poistui niinikään vuosikausia sitten.

        Mistä lähtien jonkun tehtävän yleisyys olisi erityisen tärkeä parametri?

        Systeemit käytännössä joudutaan mitoittamaan aina huonoimman käyttötapauksen mukaan.

        Suurin osa ihmisten omista tietokoneista on 80% ajasta kokonaan käyttämättömänä, joten tällä logiikalla siitä voisi jättää prossun ja muut osat kokonaan pois, kun eihän sillä tehdä mitään suurinta osaa ajasta?

        Sitten tuosta keskustelu, että mitä kevyttä käyttöä ihmiset tekevät suurimman osan ajasta koneellaan. Ei silläkään ole mitään väliä sille, joka tekee koneellaan jotakin raskaampaa.


      • 102030405060
        M-Kar kirjoitti:

        "Siis vertailuna ei olisi että molemmat tehdään koneella, mutta että kun oikeus päästä tietoon on tarkastettu sen voi ladata koneelle jos tarvitsee sitä pitemmän aikaa, esim. erilaisia malleja testatessa missä vain, vaikka esimerkiksi lentokentällä ei olisi langatonta verkkoa."

        Kyllä offline toiminallisuus on ihan perusjuttuja, ei muuta asiaa mihinkään.

        "Riippuu ihan siitä mitä tekee ja miten paljon tarvitsee leikkiä/säätää dataa eri variaatioita varten."

        Kerro jokin esimerkki että miksi.

        "Se asiakaskäyttäytymismallinnus mistä mainitsin oli eräs asia jonka tein osana työtäni ja serveripohjainen prosessointi olisi tuntunut hidastukselta."

        Miten? Palvelimellahan noita just prosessoidaan kun keräävät analytiikkatietoa. Tuo on oikeastaan reaaliaikaista että saa suoraan tiedon.

        "Vielä pieni disclaimer. Siis olin tekemässä sitä prototyyppiä asiakasmallinnuksesta. Sen jälkeen kun olin saanut testattua datalla miten eri mallit (joita jouduin säätämään jokaisen ajokerran välissä) toimivat vasta alettiin katsomaan miten sen voisi implementoida firman sisäverkkoon."

        Onpas teillä hidas sisäverkko. Kyllä sitä nyt pitäisi mikä tahana käppyrä päivittyä välittömästi kun muuttaa numeroa.

        Laske nyt huolella monta kilotavua tarvitsee siirtää ja miltä etäisyydeltä, että mitä siinä nyt menee aikaa. Mulla näkyy olevan tässä langattomasti sisäverkossa 3ms latenssi.

        Server - client arkkitehtuuri on yleensä ylläpitäjälle helppo.

        Paikallinen suoritus on yleensä käyttäjälle helppo.

        Todellisuus nykyään tietysti on näiden välimaasto . . .

        Se, missä data kannattaa milloinkin pitää riippuu sovelluksesta ja sen tarpeista. Tiedostopalvelimella tiedon säilytys toki on aina hyödyllistä, kunhan laitteessa on mös offline tallennus että hommat toimii myös kun ei ole oman serverin lähettyvillä.


      • 102030405060
        102030405060 kirjoitti:

        Mistä lähtien jonkun tehtävän yleisyys olisi erityisen tärkeä parametri?

        Systeemit käytännössä joudutaan mitoittamaan aina huonoimman käyttötapauksen mukaan.

        Suurin osa ihmisten omista tietokoneista on 80% ajasta kokonaan käyttämättömänä, joten tällä logiikalla siitä voisi jättää prossun ja muut osat kokonaan pois, kun eihän sillä tehdä mitään suurinta osaa ajasta?

        Sitten tuosta keskustelu, että mitä kevyttä käyttöä ihmiset tekevät suurimman osan ajasta koneellaan. Ei silläkään ole mitään väliä sille, joka tekee koneellaan jotakin raskaampaa.

        Mitoitus huonoimman käyttötapauksen mukaan, esim. talo jossa ihminen asuu rakennetaan yleensä Suomessa niin, että siinä tarkenee myös sinä talvena, kun on 40 pakkasta.

        Tai voimalaitospato, joka kestää myös sen vuoden kun sulamisvesiä on tavallista enempi.

        Ydinvomalaitoksen suojakuori lentokoneen törmäykselle . . .

        Siis käyttötapauksia, mitkä ei ole päällä 98% ajasta, mutta jotka joudutaan huomioimaan suunnittelussa.

        Tehokäyttäjällä itseasiassa yleensä sitä konetehoja vaativaa käyttöä on huomattavan paljon enempi kuin nämä em. ääriesimerkit.

        Niin voisiko tätä asiaa sitten parantaa paremmalla softalla? Ehkä, toisaalta nykyisellä kehitystahdilla tämä ei ole tapahtumassa kovin pian.

        Ne ohjelmat ovat menneet pilveen, jotka sinne helposti menee, eli kevyet taloudenhallinnan, erilaisen laskennan, jne. ohjelmat, ja yleensäkin ohjelmat joita käytetään hyvien yhteyksien päästä.

        Itse taas esim. olen päivittäin tekemisissä ohjelmien kanssa, joiden pitäisi toimia myös huonojen tai olemattomien yhteyksien päässä.


    • Bersel

      Prosessoritehoa voi mitata monella eri tavalla. Pisteet testiohjelmissa ovat vain pisteitä ja käytännössä sitten näkee, mikä on käytännön suorituskyky. Peruspiipertäjä ei kovin kummoista suorituskykyä laitteelta tarvitse, kunhan ymmärtää välttää halpispuhelimet, halpistabletit, halpisläppärit ja halpistietokoneet, sekä lähinnä niiden alimittaiset prosessorit, muistit ja massamuistit.

      Olennaista on myö sse, että käyttäjät eivät käytä laitteita, vaan ohjelmia. Tableteissa on mobiilikäyttis ja mobiilisovellukset, jotka ovat useimmiten toiminnaltaan rajoittuneempia kuin työpöytäversiot. Käyttäjän kannalta on aivan sama, voisiko jonkin asian toteuttaa palvelimessa vai ei, koska ei kukaan ala koodaamaan tai kasaamaan itselleen omia ohjelmistoja tai palvelinräkkejä, eikä tilaamaan sellaisia joltain yritykseltä, vaan käytetään ihan niitä ohjelmia, mitä on kaupasta tai netistä saa ladattua.

      En mainitse pelaamista, koska osa kirjoittajista haluaa aina takertua siihen yrittäen välttyä puhumasta muista tehoa vaativista asioista. Esimerkiksi sujuva videoiden editointi, 3D suunnittelu ja vastaavat vaativat nykyäänkin tehoa koneelta, eivätkä tehtävät läheskään aina ole sellaisia että niitä olisi mitenkään järkeä suorittaa eräajona, ellei sitten ole satunnainen harrastelija. Esimerkiksi laadukkaasti tehty youtube-video ei synny itsestään - eri asia ovat sitten näiden vloggareiden, bloggareiden tai itseään testaajiksi kutsuvien tuherrukset, joilla he haaveilevat joskus ansaitsevansa elannon. Suomessa on muuten enemmän loton päävoiton voittaneita miljonäärejä, kuin niitä jotka todella kykenevät itsensä somesta elättämään, että kannattaa vaan käydä se koulu ihan suosiolla ja hankkia oikea ammatti. Samoin on todennäköisempää elättää itsensä huippu-urheilijana kuin somejulkkisena.

      • Bersel

        Eli ennen kuin valmistajat alkavat tehdä oikeita, täysiverisiä ohjelmia ARM-prosessoreille, on lopulta melko merkityksetöntä, onko jossain padissa kaksi vai viisitoista ydintä ja onko se yhtä nopea, nopeampi vai hitaampi kuin jokin tietokoneen prosessori.


      • Bersel kirjoitti:

        Eli ennen kuin valmistajat alkavat tehdä oikeita, täysiverisiä ohjelmia ARM-prosessoreille, on lopulta melko merkityksetöntä, onko jossain padissa kaksi vai viisitoista ydintä ja onko se yhtä nopea, nopeampi vai hitaampi kuin jokin tietokoneen prosessori.

        "Käyttäjän kannalta on aivan sama, voisiko jonkin asian toteuttaa palvelimessa vai ei, koska ei kukaan ala koodaamaan tai kasaamaan itselleen omia ohjelmistoja tai palvelinräkkejä, eikä tilaamaan sellaisia joltain yritykseltä, vaan käytetään ihan niitä ohjelmia, mitä on kaupasta tai netistä saa ladattua."

        Ylivoimaisesti suurin osa ohjelmista mitä käytetään tapahtuu käyttäjien kannalta avaamalla ohjelman osoite. Esim. vaikka facebook.com

        Nykyään ladataan melko vähän yhtään mitään päätelaitteisiin. Useimmiten ladattavat asiat ovat mediaa täynnä olevia viihdesovelluksia ja eniten ladataan tasku- ja tablet vehkeisiin koska pöytäkoneisiin ja läppäreihin sovelluksille ei niin paljoa ole natiiviversioita.

        Itseasiassa kun niistä palvelimista puhuit niin palvelinpuolella ladattavien juttujen määrä on omassa luokassaan. Niinhän se menee, että lataukset hoitaa ne sovelluskehittäjät ja palveluiden tarjoajat kasaamalla palveluja (ohjelmistokehitysvälineiden paketeissa on hurjat määrät työkaluja ladattavana) ja sitten loppukäyttäjät menevät niihin sovelluksien osoitteisiin selaimillaan tai lataavat sovelluskaupoista.

        Jostain syystä joillakin on vähintäänkin haitallinen tai vaarallinen käsitys kuvitella, että loppukäyttäjät lataisi tai heidän kuuluisi ladata sovelluksia jostain nettisivuilta. Melkoisen suuri määrä jotain haittaohjelmia jossain filehipossa tms. Etenkin jos on ILMAINEN.

        "Eli ennen kuin valmistajat alkavat tehdä oikeita, täysiverisiä ohjelmia ARM-prosessoreille, on lopulta melko merkityksetöntä, onko jossain padissa kaksi vai viisitoista ydintä ja onko se yhtä nopea, nopeampi vai hitaampi kuin jokin tietokoneen prosessori."

        ARM on tietokoneen prosessori eikä nykyisillä ohjelmilla ole mitään merkitystä mikä se arkkitehtuuri on. Ohjelma käännetään ihan samalla tavalla ja samalla vaivalla ja melkoisen paljon ohjelmista toimii suoraan JIT ympäristön tai tulkin läpi. Ei ole mikään ongelma ostaa vaikka sitä Raspberry Pi:tä ja ajaa sillä täysiverisiä ohjelmia.

        Päätelaitteissa nyt ei käytännössä edes saa hyödynnettyä enempää kuin 8-16 ydintä maksimissaan.


      • Bersel
        M-Kar kirjoitti:

        "Käyttäjän kannalta on aivan sama, voisiko jonkin asian toteuttaa palvelimessa vai ei, koska ei kukaan ala koodaamaan tai kasaamaan itselleen omia ohjelmistoja tai palvelinräkkejä, eikä tilaamaan sellaisia joltain yritykseltä, vaan käytetään ihan niitä ohjelmia, mitä on kaupasta tai netistä saa ladattua."

        Ylivoimaisesti suurin osa ohjelmista mitä käytetään tapahtuu käyttäjien kannalta avaamalla ohjelman osoite. Esim. vaikka facebook.com

        Nykyään ladataan melko vähän yhtään mitään päätelaitteisiin. Useimmiten ladattavat asiat ovat mediaa täynnä olevia viihdesovelluksia ja eniten ladataan tasku- ja tablet vehkeisiin koska pöytäkoneisiin ja läppäreihin sovelluksille ei niin paljoa ole natiiviversioita.

        Itseasiassa kun niistä palvelimista puhuit niin palvelinpuolella ladattavien juttujen määrä on omassa luokassaan. Niinhän se menee, että lataukset hoitaa ne sovelluskehittäjät ja palveluiden tarjoajat kasaamalla palveluja (ohjelmistokehitysvälineiden paketeissa on hurjat määrät työkaluja ladattavana) ja sitten loppukäyttäjät menevät niihin sovelluksien osoitteisiin selaimillaan tai lataavat sovelluskaupoista.

        Jostain syystä joillakin on vähintäänkin haitallinen tai vaarallinen käsitys kuvitella, että loppukäyttäjät lataisi tai heidän kuuluisi ladata sovelluksia jostain nettisivuilta. Melkoisen suuri määrä jotain haittaohjelmia jossain filehipossa tms. Etenkin jos on ILMAINEN.

        "Eli ennen kuin valmistajat alkavat tehdä oikeita, täysiverisiä ohjelmia ARM-prosessoreille, on lopulta melko merkityksetöntä, onko jossain padissa kaksi vai viisitoista ydintä ja onko se yhtä nopea, nopeampi vai hitaampi kuin jokin tietokoneen prosessori."

        ARM on tietokoneen prosessori eikä nykyisillä ohjelmilla ole mitään merkitystä mikä se arkkitehtuuri on. Ohjelma käännetään ihan samalla tavalla ja samalla vaivalla ja melkoisen paljon ohjelmista toimii suoraan JIT ympäristön tai tulkin läpi. Ei ole mikään ongelma ostaa vaikka sitä Raspberry Pi:tä ja ajaa sillä täysiverisiä ohjelmia.

        Päätelaitteissa nyt ei käytännössä edes saa hyödynnettyä enempää kuin 8-16 ydintä maksimissaan.

        "Ylivoimaisesti suurin osa ohjelmista mitä käytetään tapahtuu käyttäjien kannalta avaamalla ohjelman osoite. Esim. vaikka facebook.com"

        Facebook ei ole ohjelma, vaan internet-sivusto aivan kuten google, spotify, iltalehti tai suomi24. Se että sivuston toimiminen edellyttää palvelinohjelmistoa tai taustalla olevaa tietokantaa, ei tee siitä suomen kielessä tietokoneohjelmaa, vaan sitä sanotaan internet-sivustoksi.


      • Bersel kirjoitti:

        "Ylivoimaisesti suurin osa ohjelmista mitä käytetään tapahtuu käyttäjien kannalta avaamalla ohjelman osoite. Esim. vaikka facebook.com"

        Facebook ei ole ohjelma, vaan internet-sivusto aivan kuten google, spotify, iltalehti tai suomi24. Se että sivuston toimiminen edellyttää palvelinohjelmistoa tai taustalla olevaa tietokantaa, ei tee siitä suomen kielessä tietokoneohjelmaa, vaan sitä sanotaan internet-sivustoksi.

        "Facebook ei ole ohjelma, vaan internet-sivusto aivan kuten google, spotify, iltalehti tai suomi24."

        Facebook on kylläkin joukko erilaisia sovelluksia ja muita ohjelmia jota käytetään viestittämiseen ja tiedon jakamiseen sekä myös tiedon keräämiseen ja markkinointiin.

        "Se että sivuston toimiminen edellyttää palvelinohjelmistoa tai taustalla olevaa tietokantaa, ei tee siitä suomen kielessä tietokoneohjelmaa, vaan sitä sanotaan internet-sivustoksi."

        Sovellusohjelma on kylläkin varsin hyvin määritelty: https://fi.wikipedia.org/wiki/Sovellusohjelma

        Esimerkiksi jos Facebookilla kirjoittaa viestejä toisille tai jakaa kuvia, tai seuraa sen kautta syntymäpäiviä niin se on juurikin sovellus. Se ei muuta ohjelmaa joksikin toiseksi jos se on tehty standardilla tavalla ja käyttää selaintekniikkaa käyttöliittymän esittämiseksi. Näin tekee ylivoimainen enemmistö ohjelmista.

        Sekoilet nyt jonkun tietokonehistorian kanssa kun jonkinaikaa harrastettiin spagettiohjelmia missä ajettiin päätelaitteessa kaikki samassa läjässä mutta noistahan on päästy eroon lähes täysin. Itseasiassa enemmistölle nykyaikana minkä tahansa sovelluksen asennus muualta kuin sovelluskaupasta on jotain kryptistä touhua eikä sovelluksia aina jakseta edes asentaa sovelluskaupasta kun voidaan vaan kirjoittaa ohjelman nimi siihen osoitekenttään ja käyttää.

        Ei sellainen ole nykypäivää että käyttäjän pitäisi nysväillä jotain autoexec batia tai klikkailla jotain asennusohjelmia ja tonkia jotain asennuspolkuja että voi käynnistää ohjelman. Ennen vuotta 2004 oli todella paljon mutta suunnilleen vuoden 2012 tietämillä näyttäisi murskaavan ennemistön oletus tietotekniikalle olevan se, että mitään ei asenneta ellei ole pakko. Vuosien 2004-2012 oli semmoinen siirtymä missä sovellukset meni pääasiassa selaimella toimiviksi ja sovelluskauppoihin.

        Ohjelmat joissa ei ole datalle sitä palvelinosaa ovat jotain ikivanhaa paskaa jota ei juurikaan ole ja jos on niin siitä hankkiudutaan eroon. Ihmiset kun eivät välitä lähettää tietoa toisilleen esim. postitse tai kopioimalla jotain liitteitä sähköpostiin kun nykypäivänä tuollaista sontaa ei tarvitse kestää.

        Se että sinä vaikka käytät kynää ja paperia tietotekniikan sijasta ei tarkoita sitä, että kukaan muu välttämättä haluaa ja jonkun vänkääjän takia käydä järjestelmiä tekemään vaan ne tehdään kuten maksavat asiakkaat haluavat.


      • exBersel
        M-Kar kirjoitti:

        "Facebook ei ole ohjelma, vaan internet-sivusto aivan kuten google, spotify, iltalehti tai suomi24."

        Facebook on kylläkin joukko erilaisia sovelluksia ja muita ohjelmia jota käytetään viestittämiseen ja tiedon jakamiseen sekä myös tiedon keräämiseen ja markkinointiin.

        "Se että sivuston toimiminen edellyttää palvelinohjelmistoa tai taustalla olevaa tietokantaa, ei tee siitä suomen kielessä tietokoneohjelmaa, vaan sitä sanotaan internet-sivustoksi."

        Sovellusohjelma on kylläkin varsin hyvin määritelty: https://fi.wikipedia.org/wiki/Sovellusohjelma

        Esimerkiksi jos Facebookilla kirjoittaa viestejä toisille tai jakaa kuvia, tai seuraa sen kautta syntymäpäiviä niin se on juurikin sovellus. Se ei muuta ohjelmaa joksikin toiseksi jos se on tehty standardilla tavalla ja käyttää selaintekniikkaa käyttöliittymän esittämiseksi. Näin tekee ylivoimainen enemmistö ohjelmista.

        Sekoilet nyt jonkun tietokonehistorian kanssa kun jonkinaikaa harrastettiin spagettiohjelmia missä ajettiin päätelaitteessa kaikki samassa läjässä mutta noistahan on päästy eroon lähes täysin. Itseasiassa enemmistölle nykyaikana minkä tahansa sovelluksen asennus muualta kuin sovelluskaupasta on jotain kryptistä touhua eikä sovelluksia aina jakseta edes asentaa sovelluskaupasta kun voidaan vaan kirjoittaa ohjelman nimi siihen osoitekenttään ja käyttää.

        Ei sellainen ole nykypäivää että käyttäjän pitäisi nysväillä jotain autoexec batia tai klikkailla jotain asennusohjelmia ja tonkia jotain asennuspolkuja että voi käynnistää ohjelman. Ennen vuotta 2004 oli todella paljon mutta suunnilleen vuoden 2012 tietämillä näyttäisi murskaavan ennemistön oletus tietotekniikalle olevan se, että mitään ei asenneta ellei ole pakko. Vuosien 2004-2012 oli semmoinen siirtymä missä sovellukset meni pääasiassa selaimella toimiviksi ja sovelluskauppoihin.

        Ohjelmat joissa ei ole datalle sitä palvelinosaa ovat jotain ikivanhaa paskaa jota ei juurikaan ole ja jos on niin siitä hankkiudutaan eroon. Ihmiset kun eivät välitä lähettää tietoa toisilleen esim. postitse tai kopioimalla jotain liitteitä sähköpostiin kun nykypäivänä tuollaista sontaa ei tarvitse kestää.

        Se että sinä vaikka käytät kynää ja paperia tietotekniikan sijasta ei tarkoita sitä, että kukaan muu välttämättä haluaa ja jonkun vänkääjän takia käydä järjestelmiä tekemään vaan ne tehdään kuten maksavat asiakkaat haluavat.

        Internet-sivu on internet-sivu ja ohjelma on ohjelma. Sinulla tuntuu taas olevan vaikeuksia näiden IT-alan termien kanssa. En nyt ala kolmatta tai neljättä kertaa väittelemään asiasta, koska pohjimmiltaan tapasi on vain väittää kaikille vastaan ja venytellä vakiintuneiden ilmaisujen merkityksiä saadaksesi tukea omalle pikku mielipiteellesi.

        Kuvitelmasi siitä että kaikki data ladattaisiin nykyään yleisesti verkkoon ja käsiteltäisiin sitä kautta, on yksinkertaisesti ristiriidassa todellisuuden kanssa. Tällaisia vaihtoehtoja on toki olemassa joistakin ohjelmista ja joissakin tilanteissa, kuten tietokannoissa se on jopa järkevää, mutta datamäärien ollessa suurempia tai vasteaikavaatimusten tiukkoja, näin ei kuitenkaan yleensä toimita.


      • exBersel
        exBersel kirjoitti:

        Internet-sivu on internet-sivu ja ohjelma on ohjelma. Sinulla tuntuu taas olevan vaikeuksia näiden IT-alan termien kanssa. En nyt ala kolmatta tai neljättä kertaa väittelemään asiasta, koska pohjimmiltaan tapasi on vain väittää kaikille vastaan ja venytellä vakiintuneiden ilmaisujen merkityksiä saadaksesi tukea omalle pikku mielipiteellesi.

        Kuvitelmasi siitä että kaikki data ladattaisiin nykyään yleisesti verkkoon ja käsiteltäisiin sitä kautta, on yksinkertaisesti ristiriidassa todellisuuden kanssa. Tällaisia vaihtoehtoja on toki olemassa joistakin ohjelmista ja joissakin tilanteissa, kuten tietokannoissa se on jopa järkevää, mutta datamäärien ollessa suurempia tai vasteaikavaatimusten tiukkoja, näin ei kuitenkaan yleensä toimita.

        Tarkennetaan nyt vielä, että kun kyse on suuremmista datayksiköistä, niin tuossa ei ole järkeä. Toki isosta tietokannasta voi pieniä data-alkioita siirtää selaimen näytettäväksi jos tarve on sellainen.


      • exBersel kirjoitti:

        Internet-sivu on internet-sivu ja ohjelma on ohjelma. Sinulla tuntuu taas olevan vaikeuksia näiden IT-alan termien kanssa. En nyt ala kolmatta tai neljättä kertaa väittelemään asiasta, koska pohjimmiltaan tapasi on vain väittää kaikille vastaan ja venytellä vakiintuneiden ilmaisujen merkityksiä saadaksesi tukea omalle pikku mielipiteellesi.

        Kuvitelmasi siitä että kaikki data ladattaisiin nykyään yleisesti verkkoon ja käsiteltäisiin sitä kautta, on yksinkertaisesti ristiriidassa todellisuuden kanssa. Tällaisia vaihtoehtoja on toki olemassa joistakin ohjelmista ja joissakin tilanteissa, kuten tietokannoissa se on jopa järkevää, mutta datamäärien ollessa suurempia tai vasteaikavaatimusten tiukkoja, näin ei kuitenkaan yleensä toimita.

        "Internet-sivu on internet-sivu ja ohjelma on ohjelma."

        Ja nykyään ohjelmat toimivat selaimen kautta. Ihan perusasioita. Suurin osa läppäreillä- ja pöytäkoneilla ajettavista sovelluksista toimivat näin ja ne jotka eivät ole näin tehty on lähes aina jotain ikivanhoja ajalta jolloin ohjelmia tehtiin standardien rajoitteiden takia eri tavalla.

        "Sinulla tuntuu taas olevan vaikeuksia näiden IT-alan termien kanssa. En nyt ala kolmatta tai neljättä kertaa väittelemään asiasta, koska pohjimmiltaan tapasi on vain väittää kaikille vastaan ja venytellä vakiintuneiden ilmaisujen merkityksiä saadaksesi tukea omalle pikku mielipiteellesi."

        Sovellusohjelma on vakiintunut IT-alan termi ja et edes kykene esittämään niitä uusia sovelluksia jotka toimisi jotenkin muuten kuten olen kertonut.

        "kuvitelmasi siitä että kaikki data ladattaisiin nykyään yleisesti verkkoon ja käsiteltäisiin sitä kautta, on yksinkertaisesti ristiriidassa todellisuuden kanssa."

        Ei tietenkään ole vaan nykypäivää. Mutta teillä päin hinkataan autoexec batia mustan ruudun kautta ja käytetään kynää ja paperia niin voi olla vieraita semmoiset itsestäänselvyydet kuten tietoverkko.

        "Tällaisia vaihtoehtoja on toki olemassa joistakin ohjelmista ja joissakin tilanteissa, kuten tietokannoissa se on jopa järkevää, mutta datamäärien ollessa suurempia tai vasteaikavaatimusten tiukkoja, näin ei kuitenkaan yleensä toimita."

        Juurikin päin vastoin. Googlen hakukoneessa esimerkiksi on petatavuittain dataa. Ei ne ole missään läppärillä vaan Googlen konesaleissa. Käyttöliittymät on se asia missä sillä vasteajalla on merkitystä ja kuten sanoinkin niin käyttöliittymät pidetään paikallisesti.

        "Tarkennetaan nyt vielä, että kun kyse on suuremmista datayksiköistä, niin tuossa ei ole järkeä. Toki isosta tietokannasta voi pieniä data-alkioita siirtää selaimen näytettäväksi jos tarve on sellainen."

        Näinhän ne sovellukset toimivat. Dataa on ihan normaalisti suuria määriä ja siitä siirretään käyttöliittymään se mitä käyttöliittymä vaatii.


    • Pylylyy

      Mummollani oli kampa piirongin päällä ja pappani ei puhunut sodasta vaikka muisti. Eivät aavistaneet mitä laittoivat alulle.
      Tuvassa jonnit joutavia, jauhoa lattialla, perä kurassa, mutta niin törstinä söpöttävät noista piipelestään.

    Ketjusta on poistettu 0 sääntöjenvastaista viestiä.

    Luetuimmat keskustelut

    1. Kotkalainen Demari Riku Pirinen vangittu Saksassa lapsipornosta

      https://www.kymensanomat.fi/paikalliset/8081054 Kotkalainen Demari Riku Pirinen vangittu Saksassa lapsipornon hallussapi
      Kotka
      85
      2237
    2. Olen tosi outo....

      Päättelen palstajuttujen perusteella mitä mieltä minun kaipauksen kohde minusta on. Joskus kuvittelen tänne selkeitä tap
      Ikävä
      17
      2234
    3. Vanhalle ukon rähjälle

      Satutit mua niin paljon kun erottiin. Oletko todella niin itsekäs että kuvittelet että huolisin sut kaiken tapahtuneen
      Ikävä
      11
      1579
    4. Oletko sä luovuttanut

      Mun suhteeni
      Ikävä
      103
      1445
    5. Maisa on SALAKUVATTU huumepoliisinsa kanssa!

      https://www.seiska.fi/vain-seiskassa/ensimmainen-yhteiskuva-maisa-torpan-ja-poliisikullan-lahiorakkaus-roihuaa/1525663
      Kotimaiset julkkisjuorut
      92
      1366
    6. Hommaatko kinkkua jouluksi?

      Itse tein pakastimeen n. 3Kg:n murekkeen sienillä ja juustokuorrutuksella. Voihan se olla, että jonkun pienen, valmiin k
      Sinkut
      149
      1228
    7. Aatteleppa ite!

      Jos ei oltaisikaan nyt NATOssa, olisimme puolueettomana sivustakatsojia ja elelisimme tyytyväisenä rauhassa maassamme.
      Maailman menoa
      256
      1027
    8. Mitä sanoisit

      Ihastukselle, jos näkisitte?
      Tunteet
      63
      943
    9. Onko se ikä

      Alkanut haitata?
      Ikävä
      78
      899
    10. Omalääkäri hallituksen utopia?

      Suurissa kaupungeissa ja etelässä moinen onnistunee. Suuressa osassa Suomea on taas paljon keikkalääkäreitä. Mitenkäs ha
      Maailman menoa
      173
      884
    Aihe