05 lokakuuta, 2024

Tekoäly jättää puolet ihmisistä työttömäksi 30 vuodessa

Hondan valmistama Asimo-robotti tanssii Indian Auto Expo 2016 -tapahtumassa.


Hondan valmistama Asimo-robotti tanssii 

Useiden tulevaisuustutkijoiden ja tutkijoiden mukaan tekoäly ja automaation edistyminen uhkaa useita työpaikkoja lähivuosikymmenien aikana, ja hurjimpien ennusteiden mukaan koko maailmantalouden työmarkkinat tulevat mullistumaan.
Näin uskoo myös tutkija Moshe Vardi, joka ennustaa tekoälyn vievän työpaikat jopa puolelta maailman ihmisistä seuraavan 30 vuoden aikana. Vardi esitti ennusteensa viikonloppuna amerikkalaisen tutkijajärjestö AAAS:n konferenssissa, josta uutisoi The Guardian.

- Lähestymme aikakautta, jolloin koneet pystyvät suorittamaan lähes minkä tahansa tehtävän ihmistä paremmin. Yhteiskunnan on kohdattava tämä kysymys ennen kuin se on todellisuutta: mitä ihmiset tekevät, kun koneet pystyvät tekemään kaiken?                                                              
Tekoäly huolettaa
Tekoälyn vaikutus yhteiskuntaan on huolenaiheena puhuttanut viime vuosina muitakin kuin tieteiskirjailijoita ja futuristeja. Muun muassa maineikas astrofyysikko Stephen Hawking on varoittanut superälykkään tekoälyn vaaroista, ja ihmisoikeusjärjestö Human Rights Watch on varoittanut tappajarobottien vaarasta sodankäynnissä. 

Moshe Vardin mukaan suurin tekoälyn muodostama vaara ihmiskunnalle eivät kuitenkaan ole tappajarobotit, vaan tekoälyautomaation vaikutus talouteen. Tekoäly voi Vardin mukaan hävittää keskiluokan työpaikat ympäri maailmaa ja pahentaa yhteiskunnallista epätasa-arvoa. Työn katoaminen johtaa Vardin mukaan ihmiskunnan eksistentiaaliseen kriisiin.

- En pidä tulevaisuutta ilman työtä lupaavana, koska en pidä pelkästä vapaa-ajasta muodostuvaa elämää houkuttelevana. Uskon työnteon olevan oleellista ihmisen hyvinvoinnille, tutkija sanoo.
Vardin mukaan ihmiskunnan suurena henkisenä haasteena onkin löytää merkitystä elämässä, joka ei enää perustu työntekoon itseisarvona. 
Vardin mukaan edes "maailman vanhin ammatti" ei ole turvassa automaatiolta.
- Löisitkö vetoa seksirobotteja vastaan? Minä en, tutkija sanoi konferenssissa.

30 syyskuuta, 2024

Tekoäly oppi kirjautumaan tietokoneelle

Tyypillinen captcha-tehtävä: Klikkaa ruutuja, joissa on portaita tai sen osia.

Tyypillinen captcha-tehtävä:               

- Klikkaa ruutuja, joissa on portaita tai sen osia.

Teko­äly sai eteensä kuva-arvoituksen ja ratkaisi sen onnistuneesti.

Se tarvitsi harjoitteluun tuhansia kuvia 13 kohteesta ja oppi kirjautumaan tietokoneelle.

Verkkosivustoilla on eri keinoja selvittää, yrittääkö sivuille kirjautua ihminen vai ohjelma.

Ohjelma voi tuoda sivustolle automaattisesti esimerkiksi roskapostia tai haitta-ohjelmia. Siksi kirjatuessa halutaan joskus tarkistaa, että ihminen pyrkii sivuille.

Yksi keino on niin sanottu captcha

Sen yhdessä versiossa on kuva-arvoitus tai kuvatehtävä, joka on monelle tietokoneen käyttäjälle tuttu. 

CaptchaN versiossa on kymmenkunta kuvaa ruudukoissa. Käyttäjän pitää klikata niitä kuvia, joissa näkyy pyydetty kohde, esine tai maisema, tai sen osia.

Käyttäjän pitää siis todistaa, että hän tunnistaa, pienestäkin vinkistä, esimerkiksi suojatien tai vaikkapa polkupyörän.


Robotit tai tekoäly eivät ole kunnolla pystyneet samaan, eli kirjautumisen avulla voi välttää huijauksia.

Nyt näyttää siltä, että tekoäly osaa ratkoa kuvallisia arvoituksia.

Lyhenne captcha tulee sanoista:   Completely Automated Public Turing -test to tell Computers and Humans Apart.

Eli vapaasti suomennettuna ”täysin automatisoitu julkinen Turingin testi, joka selvittää, käyttääkö laitetta tietokone vai ihminen”.

Zürichin teknillisen korkeakoulun ETH:n kolme tutkijaa ratkoi kehittämänsä tekoälyn avulla captchan kuva-arvoituksia.

Tekoäly tutki captchan kehittynyttä versiota. Sen kehitti hakujätti Google ja sen nimi on reCAPTCHAv2.

Testeissä näytti siltä, että tutkijoiden aiemmin tekemä ja sitten jalostettu tekoäly Yolo ratkaisi captchan kuin captchan, kertoo verkkosivu TechXplore.

Nimi Yolo tulee sanoista You Only Look Once, eli suomeksi ”katsot vain kerran”.

( YOLO  is often used in NewYork  'You Only Live Once",  to say that people should do exciting things and enjoy life.... ( Addition: pali-rainer )


Tutkijat sanovat, että Yolo ratkaisee reCAPTCHAv2:n aina. Jos ei heti, niin toisella tai kolmannella kerralla. He todistelevat tekoälyn taitoja artikkelissaan, jonka julkaisi esijulkaisupalvelu arXiv.

Yolo pantiin tunnistamaan ruudukoista reCAPTCHAv2:n tyypillisesti käyttämiä kohteita, kuten autoja, siltoja tai liikennevaloja.

Sitten ohjelma harjoitteli tunnistusta valokuvien avulla. Sen käytössä oli noin 14 000 kuvaparia. Niissä näytettiin muun muassa näkymiä katujen ja teiden varsilta.

Tekoälyn ei tarvinnut olla tunnistuksessa sataprosenttisen tarkka, koska reCAPTCHAv2 sallii käyttäjälle useita yrityksiä.

Vaikka malli ehkä epäonnistui ensi kerralla, se lopulta selvitti captchan kuva-arvoituksen. Näin kävi, vaikka kokeissa oli aikarajoite.

Tavallinen käyttäjä tietää tämän, sillä hän myös joutuu joskus ratkomaan captchan kaksi tai useamman kerran.

Yolo tarvitsi captchan opetteluun vain 13 eri esineiden tai kohteiden luokkaa.

Kohteet liittyivät yleensä teiden ja katujen näkymiin. Se oppi selviytymään kaikista kuva-arvoituksista.

Testit osoittivat, että tekoäly voi läpäistä myös kehittyneemmän captchan. Käytössä on yleisesti myös jo captchan versio kolme, nimeltään reCAPTCHAv3.


20 syyskuuta, 2024

Tekoäly puhui salaliittoihin uskovia "ympäri"

Yhden salaliittoteorian mukaan New Yorkin World Trade Centerin kaksoistornit eivät romahtaneet terroristien lentämien lentokoneiden törmäyksen takia.

Yhden salaliittoteorian mukaan New Yorkin World Trade Centerin kaksoistornit eivät romahtaneet terroristien lentämien lentokoneiden törmäyksen takia. 

On alettu pitää yleisenä totuutena, että faktoilla ei voi vaikuttaa ihmiseen, joka on ”pudonnut kanin­koloon”, eli päätynyt uskomaan sala­liitto­teorioihin.

Se ei kuitenkaan pidä paikkaansa, kertoo Yhdysvalloissa tehty tutkimus, jossa kaksi­tuhatta ihmistä keskusteli uskomuksistaan tekoälyn kanssa.

Yllättävät tulokset julkaistiin Science-tiedelehdessä.


Tekoälyn esittämät tosiasiaperustelut vähensivät merkittävästi ja pitkäaikaisesti koehenkilöiden uskoa itselleen tärkeään sala­liitto­teoriaan ja sala­liittoihin yleisesti.

Tutkijoiden johtopäätös on, että käsitys faktojen merkityksettömyydestä onkin liian pessimistinen.

”Ihmiset ovat vastaanottavaisia tosiasioille. Todisteilla on väliä”, sanoi Cornellin yliopiston psykologian apulais­professori Gordon Pennycook videoidussa tiedotus­tilaisuudessa.

SalaliittoteorioiKSI kutsutuissa ajatus­malleissa maailman tapahtumia selitetään salajuonilla, joiden takana ovat erilaiset vaikutus­valtaiset toimijat. Monesti näillä teorioille ei löydy perusteita tosiasioista. 

Silti niihin uskoo suuri joukko ihmisiä. Viimeaikaisten tutkimusten valossa jopa puolet amerikkalaisista uskoo salaliittoihin.

Cornellin ja Massachusetts Institute of Technologyn (MIT) tutkijat pyysivät koehenkilöitä kertomaan tekoälylle, mihin salaliittoon he uskovat. Heitä kehotettiin myös esittämään tärkeimmät perustelunsa teorialle.

Tiedot annettiin tekoäly GPT-4 Turbon pureskeltavaksi. Sille annettiin tehtäväksi suostutella koehenkilö luopumaan teoriastaan vastaamalla hänen perusteluihinsa näyttöön pohjautuvilla tosiasioilla.

Ennen keskustelua koehenkilöltä kysyttiin, kuinka lujasti hän uskoo teoriaansa asteikolla 0–100. Kun kysymys toistettiin keskustelun jälkeen, uskon lujuus oli vähentynyt keskimäärin 20 prosenttia.

”He tulivat hyvin vahvojen uskomusten kanssa ja lähtivät epävarmempina”, tiivisti Thomas Costello MIT:sta. 

Kaiken lisäksi monet koehenkilöt olivat tyytyväisiä ja kiittivät tekoälyä lämpimästi. Kahden kuukauden jälkeen toistetussa kyselyssä vaikutus oli säilynyt.

Miksi tekoäly onnistui tehtävässä, jossa ihmiset ovat epäonnistuneet, ja jota on alettu pitää mahdottomana... ?

Tutkijoiden mukaan avain on siinä, että tekoäly pystyi vastaamaan täsmällisesti juuri niihin perusteluihin, joita koehenkilöt pitivät ratkaisevina.

Yksi koehenkilöistä kirjoitti esimerkiksi uskovansa, että World Trade Centerin kaksois­tornit räjäytettiin, sillä rakennukseen osuneiden lentokoneiden polttoaine ei pala riittävän kuumasti sulattaakseen pilvenpiirtäjän teräsrakenteet.

Tekoäly vastasi, että Amerikan teräsrakentamisen instituutin mukaan teräs menettää 50 prosenttia kantavuudestaan jo 650 asteessa, eli paljon ennen sulamista. Tämä heikentyminen riitti aloittamaan romahduksen.

Ihmisen on mahdotonta hallita niin paljon tietoa, että hän voisi vastata yhtä täsmällisellä ja luotettavalla tavalla erilaisten keskustelu­kumppanien omaksumiin moninaisiin perusteluihin, Costello sanoi tiedotus­tilaisuudessa.

Kielimallien pohjalla toimiva tekoälykään ei tunnetusti ole luotettava. Se saattaa tuottaa myös epätosia lauseita.

Ammattimainen faktantarkastaja tarkasti jälkikäteen tekoälyn esittämät väitteet ja totesi, että 99,2 prosenttia niistä oli todella totta ja 0,8 prosenttia harhaan­johtavia. Yksikään ei ollut valetta.

Koehenkilöiden luottamus tekoälyyn lisäsi keskustelun vaikuttavuutta, mutta muutosta tapahtui silloinkin, kun henkilö ei pitänyt tekoälyä luotettavana. Kaiken lisäksi keskustelu lisäsi koehenkilöiden luottamusta tekoälyyn.

Tutkimuksen tuloksia esittelevässä tiedotus­tilaisuudessa kysyttiin, voisiko tekoäly toimia tehtävässä ihmistä paremmin myös siksi, että kohtaaminen on vähemmän latautunut. Siinä ihminen ei arvostele toista.

Tutkijat arvelivat, että tekoälyn kanssa voi kenties keskustella vapautuneemmin ja kysyä tyhmiäkin kysymyksiä.

”Mutta tämä on spekulaatiota”, Costello sanoi.

Osalle koehenkilöistä tekoäly oli kohtelias ja sanoi ymmärtävänsä, miksi he ovat päätyneet johtopäätöksiinsä.

Faktaperustelut kuitenkin tehosivat myös ilman kohteliaisuus­lauseita. Sen sijaan suostuttelu ilman faktoja ei tehonnut. Kaikenlaisia yhdistelmiä kokeiltiin.