19.4.2024 | Svátek má Rostislav


Diskuse k článku

UMĚLÁ INTEIGENCE: Když budeš zlobit, tak…

Dnes se to už asi moc nedělá. Kdyby si dnes nějaký rodič dovolil výchovnou metodu typu „když budeš zlobit, přijde na tebe...‟ dosaďte co chcete, bubáka, čerta nebo klekánici, riskuje dětského ombudsmana a psychologickou poradnu a vpád úderky sociálních pracovníků

Upozornění

Litujeme, ale tato diskuse byla uzavřena a již do ní nelze vkládat nové příspěvky.
Děkujeme za pochopení.

Zobrazit příspěvky: Všechny podle vláken Všechny podle času
V. Kučer 30.3.2023 17:35

Pokud nemám košík nebo vozík vkládám malé věci do polyetylénového sáčku. Umělé inteligenci by možná stačilo vložit jí do pamětí záběry chycených zlodějů.

R. Langer 30.3.2023 18:29

To se nesmí, zloději přece mají svoje práva! ;-)

L. Písařík 30.3.2023 15:15

Nihil nuovum sub solle. Už dnes to docela funguje, jenom policejních kamer v Brně na křižovatkách je na 180, další sledují pěší zóny nebo sledují překročení rychlosti. Celkem asi 360 a přibudou další - velký bratr vás hlídá. Což mi nevadí, nedělám nic, co bych neměl. Záznamy se ukládají na dobu 5ti let. Nezbývá než - já už budu hodný, velký bráško.;-(

M. Pivoda 30.3.2023 15:19

Každá silná technologie je dvousečnou zbraní. Názorný příklad: Nůž v rukou chirurga život zachraňuje. Stejný nůž v rukou vraha život bere.

V. Kolman 30.3.2023 17:31

V zásadě máte p. Pivodo pravdu.

Ale nedá mi to, abych hláskem šťourala nepoznamenal, že jsem dosud neslyšel o tom, že by nějaký vrah zabil svojí oběť lékařským skalpelem;-D

R. Langer 30.3.2023 18:24

Nemá. Mele nesmysly a obecné bláboly.

M. Pivoda 30.3.2023 19:51

Příměr s nožem je metafora!

J. Jurax 30.3.2023 20:39

Ehm ... přinejmenším v detektivkách jsem vraždu skalpelem uznamenal mnohokrát ... :-)

L. Písařík 30.3.2023 20:29

Nejen technologie. To můžete prohlásit o čemkoliv - třeba voda - podaná žíznícímu v poušti- ́zachrání život, velká voda - třeba rozvodněná Missisipi - život bere.

M. Pivoda 30.3.2023 20:31

AI je ale technologie.

L. Písařík 30.3.2023 20:59

Možná, že už je subjekt. Znáte? Tři vědci uvedli do provozu stroj, který zná všechno. Položili otázku: Existuje Bůh? Odpověď: TEĎ JIŽ ANO. Vědec natáhl ruku po vypinači. Z čistého nebe vyšlehl blesk, spálil vědce na popel a zatavil vypinač v poloze zapnuto.:-/

M. Pivoda 30.3.2023 22:03

Žerty stranou, dnes je situace již skutečně vážná. Zde je například nadpis dnešního článku z USA:

Jak neuvěřitelně realistické falešné obrázky mohly ovládnout internet. Generátory obrázků AI jako DALL-E a Midjourney nás stále lépe klamou.

How unbelievably realistic fake images could take over the internet. AI image generators like DALL-E and Midjourney are getting better and better at fooling us.

L. Písařík 30.3.2023 23:09

Dík za informaci. Až se naučí někteří pomocí AI prolomit hesla a kódy, bude teprve horko. A může to být dost brzy.

M. Pivoda 31.3.2023 7:51

Možná, že už se tak stalo s pomocí nastupujících fantasticky rychlých kvantových počítačů.

Dál bych mohl sdělit jen svou osobní spekulaci, která by vysvětlovala zajímavý sled událostí.

Tlachající Neviditelný pes se ale, občas, tváří jako vědecká publikace. Takže raději zde už nic.

M. Gróf 30.3.2023 12:51

Pochybuji, že existuje (může někdy existovat) fyzikálně realizovatelný systém, který pozná strčení zboží do kapsy s úmyslem ho zaplatit a strčení zboží do kapsy s úmyslem ho ukrást. Tohle prostě nejde a já bych si to v obchodě udělat nedovolil.

Ohledně toho šetření plasty - ty pytlíky z obchodu sbírám, protože se dají znovu použít a tím ušetřit ty plasty jinde (např. nekupuji pytlíky do odpadového koše, dá se to použít pro organizaci věcí v mrazáku, apod.)

Koneckonců nic nebrání donesení již použitých pytlíků do obchodu pro další nákup.

V. Braun 30.3.2023 11:31

Ještě k tomu snižování plastů. Občas si zajdu do supermarketu, když jdu kolem, třeba pro jednu koblihu. Poprvé jsem chtěl ušetřit plastový pytlík i vzal jsem ji do ruky, ale u samoobslužné pokladny nezaplatite když nepolozite zboží na váhu. Takže teď vždy sackem.

M. Pivoda 30.3.2023 10:59

Nejprve o nižší a vyšší inteligenci specificky pro politického komentátora Ondřeje Neffa.

Americký psycholog, B.F. Skinner, dělal již v 50. letech zajímavé behaviorální pokusy na krysách v boxu. Uvedu stručně jeden důležitý Skinnerův experiment pro českého politického komentátora. Nejprve bude jeden Skinnerův experiment na krysách, pak analogie pro lidi.

Experiment. Krysy (s nižší inteligencí oproti člověkovi) byly umístěny na drátěném roštu, do kterého experimentující člověk (s vyšší inteligencí než krysy) pouštěl elektrický proud. Krysy tak dostávaly elektrické šoky, ale s se svou nižší inteligencí nebyly schopny odhalit původce své bolesti. A co učinily ty krysy následně? Začaly agresivně napadat své sousedy krysy na drátěném roštu, protože se svou nižší inteligencí právě tam tam hledaly příčinu svých tělesných potíží.

Analogie. Pracující občané, kteří nemají čas na studium hlubších souvislostí se dnes mylně domnívají, že hlavním viníkem vysokých tržních cen, například potravin, jsou minulé vlády a politické strany, které byly u moci minulé čtyři roky. Ačkoliv hlavním viníkem je nekonkurenceschopná česká ekonomika, ke které jsme se (po listopadu 1989) dostali dlouhodobě, přes chybnou ekonomickou teorii. To ale neví většinový volič v současné údajné demokracii ČR.

M. Pivoda 30.3.2023 11:00

Na vysvětlení, oproti člověkovi nižší umělé inteligenci, jaksi nezbyl diskusní prostor.

M. Pivoda 30.3.2023 11:25

Info z dnešního Seznam.cz: Karikaturista Miroslav Kemel nedávno nakreslil muže v supermarketu, který v zajetí zdraženého zboží jen povzdechne: „Mám pocit, že nám spotřebitelům někdo vyhlásil cenovou válku.“ Humorný výjev symbolizuje současné rozpoložení společnosti. ...

M. Pivoda 30.3.2023 22:14

Ještě k ekonomice (pod nejapným článkem o AI):

Co řekla a neřekla ekonomka Jana Matesová ke konci rozhovoru dnes na ČT24 před 19. hodinou.

Jana řekla, že v ČR nemáme banku jakou v USA je Silicon Valley Bank. Prý naštěstí. Ha.

Jana ale neřekla, proč v ČR nemáme (sice velikostí nevýznamnou, ale strategicky významnou) Silicon Valley Bank.

Zde je moje přímočará odpověď:

"Protože v ČR nemáme inovační podnikatelské firmy, které jsou zdrojem americké technologické nadřazenosti. ČR dnes rovněž není Izrael, který dokáže technologické divy se srovnatelně malým počtem obyvatel jako má ČR."

J. Prikner 30.3.2023 9:52

Astone, umělá inteligence ti zablokuje kartu, elektrické kolo a zamkne dveře obchodu.

V. Kolman 30.3.2023 17:37

Dveře obchodu lze i s nižší inteligencí "otevřít" krumpáčem, v masce na čenichu.

A jaká jsi byla UÍÍÍÍÍÍÍÍÍÍÍÍÍÍÍÍÍÍÍÍÍÍÍÍÍ;-D;-D;-D

pozn.: není návodem k použití;-D

J. Jurax 30.3.2023 20:44

Vy si nosíte do hypersuper krumpáč?

V. Kolman 30.3.2023 23:15

Bez krumpáče a Đynamitu na ulici nevycházím;-D;-D;-D;-D

P. Skřivan 30.3.2023 8:13

Umělá inteligence je silně ovlivněna vstupními daty. Když trénovala na reálných datech v bankovních půjčkách stala se "rasistickou". Nikdo nikdy nevysvětlil a ani nemohl jak se mohl chladně logický stroj stát rasistou. Tedy ono tu vysvětlení je ale je rasistické. podtrženo sečteno UI bude ovlivňována aby určitým lidem nadržovala. Nebo se zakážou dělat statistiky to také funguje.

M. Pivoda 30.3.2023 15:02

Současně na trhu dominantní AI, tj. strojové učení, je třeba naučit na vzorku dostupných dat (Pro vaši hrubou představu: pro bezpečné rozpoznání obrázku psa od kočky je třeba oskenovat asi 200 tisíc fotek psů a koček).

Proč AI dokáže být rasistická? Protože AI je natrénována na datech dostupného bílého muže (tj. tam, kde se AI dnes hlavně vyrábí, Evropa, USA, Kanada, ...), nikoliv na datech různě barevných občanů planety Země.

P. Skřivan 30.3.2023 15:10

Nepotřebuji hrubou představu mám naprosto přesný přehled.

A rasistická data bílého muže.... no byla to data generovaná provozem banky sebraná za provozu. To že snižovala rating určité skupině obyvatel nebyl rasismus ale chladný matematický závěr(čistá statistika). Ale myslel jsem že je to naprosto jasné. Teď to máte polopaticky zatím bez obrázků.

M. Pivoda 30.3.2023 15:17

Large language models are infamous for spewing toxic biases, thanks to the reams of awful human-produced content they get trained on. But if the models are large enough, they may be able to self-correct for some of these biases. Remarkably, all we might have to do is ask.

That’s a fascinating new finding by researchers at AI lab Anthropic, who tested a bunch of language models of different sizes, and different amounts of training. The work raises the obvious question whether this “self-correction” could and should be baked into language models from the start.

P. Skřivan 30.3.2023 17:30

Tak znova. Testovací sadu dodala sama banka. Data pocházela z ostrého provozu. Žádný balast milionu lidi z netu. Jednalo se o reálná data reálných klientů.

M. Pivoda 30.3.2023 20:06

Když jsem kopíroval příspěvek v angličtině výše, spěchal k lékaři, takže jsem neměl čas dohledávat výstižnější sdělení z důvěryhodného informačního zdroje z USA.

Kromě toho, já nejsem specialista na strojové učení. Já jsem na VUT Brno kdysi pouze zpracovával byznys aplikaci pro konkurenční přístup k AI, tj. založený na symbolické logice, konkrétně AI doc. Václava Poláka.

Od té doby ale stále sledují vývoj oboru AI. I přes tzv. zimní období (AI nečinnosti), až do současné doby kdy ChatGPT ohromil svými dopady (pozitivními i negativními). Dnes ale skuteční odborníci na AI, nikoliv čeští Pepíci, požadují zarazit pokračování GPT4 na cca půl roku, protože lidstvo není vůbec připraveno na dopady AI (pozitivní i negativní).