<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title></title>
	<atom:link href="https://markamonitor.hu/tag/ai-act/feed/" rel="self" type="application/rss+xml" />
	<link>https://markamonitor.hu</link>
	<description></description>
	<lastBuildDate>Thu, 08 Jan 2026 16:32:40 +0000</lastBuildDate>
	<language>hu</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.1</generator>

<image>
	<url>https://markamonitor.hu/wp-content/uploads/2018/07/cropped-favicon-32x32.png</url>
	<title>Márkamonitor</title>
	<link>https://markamonitor.hu</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Védtelenek vagyunk a mesterséges intelligenciával szemben? – A Médiaunió kísérlete bebizonyította: bármelyik korosztály becsapható&#8230;</title>
		<link>https://markamonitor.hu/vedtelenek-vagyunk-a-mesterseges-intelligenciaval-szemben-a-mediaunio-kiserlete-bebizonyitotta-barmelyik-korosztaly-becsaphato/</link>
		
		<dc:creator><![CDATA[Tokaji Tamás]]></dc:creator>
		<pubDate>Fri, 09 Jan 2026 04:05:22 +0000</pubDate>
				<category><![CDATA[Hírek]]></category>
		<category><![CDATA[Kiemelt]]></category>
		<category><![CDATA[A kulcs te vagy!]]></category>
		<category><![CDATA[ai]]></category>
		<category><![CDATA[AI Act]]></category>
		<category><![CDATA[brainrot]]></category>
		<category><![CDATA[deepfake]]></category>
		<category><![CDATA[Hírstart kiemelt]]></category>
		<category><![CDATA[Kardos Ferenc]]></category>
		<category><![CDATA[KiberPajzs]]></category>
		<category><![CDATA[Médiaunió Alapítvány]]></category>
		<category><![CDATA[Mezriczky Marcell]]></category>
		<category><![CDATA[MI]]></category>
		<guid isPermaLink="false">https://markamonitor.hu/?p=72712</guid>

					<description><![CDATA[A „Kulcs te vagy!” kampány keretében a Médiaunió Alapítvány egy többgenerációs kísérletben vizsgálta, hogyan hat a mesterséges intelligencia az emberek valóság érzékelése. Fiatalok és idősebbek próbálták eldönteni, mely tartalmak valódiak és melyeket készítette MI. &#160; Európai felmérések szerint a 13-18 évesek 96 százaléka használt már mesterséges intelligenciát az utóbbi egy évben (40 százalékuk napi rendszerességgel), [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><strong>A „Kulcs te vagy!” kampány keretében a Médiaunió Alapítvány egy többgenerációs kísérletben vizsgálta, hogyan hat a mesterséges intelligencia az emberek valóság érzékelése. Fiatalok és idősebbek próbálták eldönteni, mely tartalmak valódiak és melyeket készítette MI.</strong></p>
<p>&nbsp;</p>
<p>Európai felmérések szerint a 13-18 évesek 96 százaléka használt már mesterséges intelligenciát az utóbbi egy évben (40 százalékuk napi rendszerességgel), a tinédzser fiúk 51 százaléka pedig érzelmi vagy „romantikus” beszélgetéseket is folytat ezekkel az eszközökkel. A felnőttek körében sem más a helyzet: az EU-ban dolgozóknak immár 30 százaléka alkalmaz AI-t a munkája során. A Médiaunió Alapítvány és a KiberPajzs friss kísérlete azt mutatta meg, hogy a magas arányszámok ellenére korántsem biztos, hogy jobban felismernénk, mi valós és mi mesterséges. Sőt, a legújabb pénzügyi elemzések szerint mára minden második pénzügyi csalási kísérletnek része valamilyen módon az MI…</p>
<p>&nbsp;</p>
<p><strong>Fiatalok, idősek – és az MI</strong></p>
<p>Egy fiú ikerpárnak és nagymamájuknak, valamint két évvel idősebb nővérüknek és egy nagypapakorú férfinak mutattuk meg ugyanazokat a képeket és videókat, és mindannyiuknak arról kellett dönteniük, hogy valódi felvételeket látnak-e, vagy mesterséges intelligencia által generált tartalmakat. A kísérletben nem szerepeltek csalási szándékkal készült vagy érzelmileg megterhelő „unokás” videók: hétköznapinak tűnő jelenetek, tájképek, portrék kerültek a képernyőre. Volt köztük olyan is, amely első látásra reálisnak tűnt, de valójában abszurd részletet rejtett – például egy badacsonyi „karfiolültetvényt” –, és voltak olyan felvételek, amelyek minden pixele „hibátlan” volt.</p>
<p>A fiatalok magabiztosan keresték az MI tipikus jeleit: furcsa textúrákat, aránytalan színeket, kilógó árnyékokat, „videojátékos” bőrt, apró csúszásokat a szájmozgás és a hang között. Az idősebbek ezzel szemben azt nézték, mennyire életszerű, amit látnak: el tudják-e képzelni a helyszínt, „ilyenek-e” az emberek a valóságban. Bár a kontraszt látványos volt, a tévedések egyik generációnál sem maradtak el.</p>
<p>A kísérlethez kapcsolódóan Mezriczky Marcell deepfake- és MI-kutató részletesen elemezte, hogyan változtatja meg az MI a valóság érzékelésünket. Mint mondta, a fiatalok látszólag előnyben vannak, hiszen belenőttek az MI-eszközök használatába: természetes számukra, hogy a képek és videók lehetnek filterezettek, „megtuningoltak”, akár teljesen szintetikusak is. <em>„Ez a rutin ugyanakkor könnyen túlzott magabiztossággá válik. A fiataloknak kisebb a forráskritikájuk, elbízzák magukat, és nem feltételezik, hogy a digitális módosítás olyan élethű lehet, hogy ők sem veszik észre.”</em></p>
<p>Az idősebb generáció másképp téved, ők elsősorban az érzelmi meggyőződésre építenek: ha a szereplő hangja, tekintete, gesztusai ismerősnek hatnak, könnyebben fogadják el valódiként a tartalmat. Ez a logika a hétköznapi életben gyakran jól működik, az MI korában viszont éppen ez válik kockázattá.<em> „Az idősebb generáció érzelmi meggyőződés alapján hisz el egy tartalmat. Ez sebezhetővé teszi őket az MI-val felturbózott unokás csalásokkal és manipulált hívásokkal szemben.” </em>Nem véletlen, hogy a pénzügyi szakemberek 56 százaléka a social engineeringet, vagyis a pszichológiai manipulációt tartja ma az egyik legerősebb, MI által támogatott csalási technikának.</p>
<p><iframe title="YouTube video player" src="https://www.youtube.com/embed/SnW2lmOoGzc?si=J63KW6D9OOJkmiOS" width="560" height="315" frameborder="0" allowfullscreen="allowfullscreen"></iframe></p>
<p>&nbsp;</p>
<p><strong>A manipuláció új kora: brainrottól a politikai deepfake-ig</strong></p>
<p>Mezriczky Marcell szerint fontos különbséget tenni az egyre többféle MI-tartalom között, mert míg a szintetikus, úgynevezett „brainrot” videók nyíltan vállalják mesterséges eredetüket – szándékosan túlzó, trash-jellegű, szórakoztató alkotások, amelyek nem akarnak valóságosnak tűnni –, a deepfake videók célja épp az, hogy megtévesszenek. Ez az ugrásszerű erősödés akkor vált igazán kézzelfoghatóvá, amikor a technológia „demokratizálódott”, és megjelentek azok a telefonos alkalmazások, amelyek egyetlen szelfiből is hiteles arccserés videót készítenek. A platformok ontják magukból ezeket a tartalmakat, a felhasználók pedig sokszor már nem is tudják, mi készült valósan és mi mesterségesen. A helyzetet tovább rontja, hogy a politikai kommunikációban is megjelent a deepfake, ami – a kutató szerint – <em>„egyfajta legitimációt is ad a technológiának, ami kifejezetten káros példa”</em>.</p>
<p>A deepfake-ek elterjedése nemcsak technikai, hanem társadalmi értelemben is komoly veszélyt jelent. Technikai oldalról nézve már most is egyre nehezebb felismerni a manipulált tartalmakat: a modellek ugyan néha még hibáznak a pislogásban, a bőrtónusban vagy a mozgás finomságaiban, de ezek a hibák gyorsan eltűnnek. A felismerhetetlenség pedig új típusú kockázatokat hoz magával. A beleegyezés nélküli „vetkőztetős” AI-képektől kezdve az unokázós csalásokon, hamis videóhívásokkal és kamu profilokkal pénzügyi kárt okozó átveréseken át egészen a testképzavart erősítő szintetikus képekig és a politikai manipuláció céljából készült deepfake-ekig, a technológia egyre több élethelyzetben válik veszélyforrássá. A pénzügyi szakemberek 44 százaléka már találkozott deepfake-alapú csalási technikákkal, ami jól mutatja, hogy a mesterségesen előállított arcok és hangok ma már valódi anyagi kockázatot is jelentenek.</p>
<p>&nbsp;</p>
<p><strong>Mit tehetünk? Lassítás, ellenőrzés, közös felelősség</strong></p>
<p>A kérdés tehát nem az, meg tudjuk-e állítani a technológiai fejlődést, hanem az, hogyan alkalmazkodunk hozzá. Mert szabályozások elméletileg már most is vannak: az EU-s AI Act például előírja, hogy a mesterséges intelligenciával generált tartalmakat egyértelműen jelölni kellene, mégsem szerepel mindenhol ez a jelzés. A jogalkotás rendkívül lassú, a technológia pedig közben óriási léptekkel halad előre. A kutató szerint az oktatásra kellene sokkal nagyobb hangsúlyt fektetni, hiányzik ugyanis az MI-specifikus média- és digitális műveltség beépítése az iskolai tantervbe.</p>
<p>Mezriczky úgy gondolja a mindennapi biztonság egyik alapja egy egyszerű, de annál fontosabb reflex lenne: <em>„Hiába kényelmetlen, inkább ellenőrizzünk mindent háromszor.”</em> Ez a gyakorlatban azt jelenti, hogy egy erős érzelmi reakciót kiváltó videó vagy hangüzenet esetén nem azonnal cselekszünk, hanem más csatornán is ellenőrizzük az információt, és nem hozunk átgondolatlan pénzügyi vagy bizalmi döntést egyetlen impulzus alapján. Ez különösen fontos a pénzügyi manipulációk esetében, ahol a csalók gyakran banki ügyintézőnek, rendőrnek vagy a család egy tagjának adják ki magukat. Az ilyen rosszindulatú próbálkozások kivédésének legegyszerűbb módja, ha van egy „családi jelszó” – egy olyan szó, amit csak a valódi személyek ismerhetnek: így ha ezt nem mondják ki, biztosak lehetünk benne, hogy a hívás nem valódi. Fontos továbbá, hogy a bank sosem kér jóváhagyási kódot, belépési adatot, nem kér arra, hogy „tesztforgalmat” indítsunk vagy „biztonsági számlára” utaljunk. Ha ilyet látunk, az biztosan csalás.</p>
<p>Kardos Ferenc, a Médiaunió ügyvezetője szerint a kísérlet legfontosabb tanulsága az volt, hogy egyik generáció sem sebezhetetlen: <em>„A kísérlet megmutatta, nem az számít, ki mennyi időt tölt a digitális térben – egyik generációnak sincs biztos kapaszkodója. A fiatalok technikai jelzésekre hagyatkoznak, az idősebbek a tapasztalataikra, de a mesterséges intelligencia mindkét logikát képes kijátszani.”</em></p>
<p>Másképp gondolkodunk, másképp hibázunk, mégis ugyanazokkal a kockázatokkal nézünk szembe. A mesterséges intelligencia nemcsak a technológiáról szól, hanem arról is, hogyan tanulunk együtt eligazodni egy olyan világban, ahol mindannyiunknak újra kell értelmezni a látottakat.</p>
<p>&nbsp;</p>
<p><em><strong>„A kulcs te vagy!” kampányról</strong></em></p>
<p><em>Feltört bankszámla? Adatlopás? Online átverés? Ezek csak másokkal történhetnek meg – vagy mégsem? Két csoportja van azoknak, akik még nem voltak áldozatai mindennapjaink online visszaéléseinek: az egyik a tudatos és következetes felhasználók, a másik pedig a szerencsések. Az utóbbiak vannak többségben – és veszélyben. A Médiaunió Alapítvány 14. társadalmi célú kampánya a pénzügyi és az adatvédelmi kihívásaira fókuszál. Célja, hogy felhívja a figyelmet a terület veszélyeire, tudatosítsa, hogy gyakorlatilag mindenki érintett, valamint hogy edukálja a lakosságot a veszélyhelyzetek felismerésére, a helyes lépésekre. „A kulcs te vagy!” kampányban a Médiaunió szakmai partnere a KiberPajzs Program és a Magyar Bankszövetség.</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Kellő körültekintéssel kell lenniük a munkáltatóknak az AI-rendszerek használata során</title>
		<link>https://markamonitor.hu/kello-korultekintessel-kell-lenniuk-a-munkaltatoknak-az-ai-rendszerek-hasznalata-soran/</link>
		
		<dc:creator><![CDATA[Károly Kiss]]></dc:creator>
		<pubDate>Mon, 18 Nov 2024 12:35:47 +0000</pubDate>
				<category><![CDATA[Hírek]]></category>
		<category><![CDATA[ai]]></category>
		<category><![CDATA[AI Act]]></category>
		<category><![CDATA[Dr. Szabó Gergely Gábor]]></category>
		<category><![CDATA[EU]]></category>
		<guid isPermaLink="false">https://markamonitor.hu/?p=66782</guid>

					<description><![CDATA[Az EU 2024. augusztus 1-jén hatályba lépett mesterséges intelligenciáról szóló rendelete (az „AI Act”) a világ első átfogó szabályrendszere az AI-ra vonatkozóan, mely legfontosabb céljaként fogalmazza meg, hogy az Európai Unióban működő vagy azt érintő AI rendszerek megbízhatóak legyenek és tiszteletben tartsák azokat az alapvető értékeket, melyek a békés együttéléshez feltétlenül szükségesek. Az AI Act [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><strong>Az EU 2024. augusztus 1-jén hatályba lépett mesterséges intelligenciáról szóló rendelete (az „AI Act”) a világ első átfogó szabályrendszere az AI-ra vonatkozóan, mely legfontosabb céljaként fogalmazza meg, hogy az Európai Unióban működő vagy azt érintő AI rendszerek megbízhatóak legyenek és tiszteletben tartsák azokat az alapvető értékeket, melyek a békés együttéléshez feltétlenül szükségesek. Az AI Act által támasztott követelmények, melyek előírják az AI &#8211; munkáltatók működésével, toborzásával, teljesítményértékelésével, vagy munkaerő-felügyeletével kapcsolatos &#8211; biztonságos és etikus használatát, jelentős hatással lesznek a munkáltatókra és az egész HR-ágazatra.</strong></p>
<p>&nbsp;</p>
<p>Dr. Szabó Gergely Gábor, a Bán, S. Szabó, Rausch &amp; Partners Ügyvédi Iroda szabályozási ügyekért felelős vezető ügyvédje az alábbiakban mutatja be a fontosabb szabályokat és azok várható hatását.</p>
<p>&nbsp;</p>
<p><strong>Hogyan kategorizálja az EU AI Act a mesterséges intelligencia rendszereket?</strong></p>
<p>A mesterséges intelligencia használata mára a legtöbb területen már fellelhető valamilyen formában, így a HR-szektorban is egyre nagyobb jelentőséget kap, különösen a toborzás és kiválasztás területén. Az AI Act szabályainak való megfelelés érdekében ellenőrizni kell, hogy az AI-rendszer melyik kockázati csoportba tartozik és ezáltal munkáltatónak, illetve a külsős HR-es cégnek milyen kötelezettségeknek kell megfelelnie. Az AI Act szabályozási struktúrája kockázatalapú megközelítést követ, négy kategóriába sorolja az AI rendszereket, modelleket az alapján, hogy azok milyen hatással lehetnek a társadalomra és az alapvető emberi jogokra. Ez alapján megkülönböztet elfogadhatatlan, nagy, korlátozott és minimális kockázatú AI-t.</p>
<p>&nbsp;</p>
<p><strong>Milyen szabályozást követ az EU AI Act a munkahelyi érzelemfelismerő rendszerek használatával kapcsolatban, avagy a HR-szektor és az „elfogadhatatlan kockázatú” AI.</strong></p>
<p>A HR-ágazatban a legnagyobb veszélyt az „elfogadhatatlan kockázatú” AI gyakorlatok jelentik – hangsúlyozta Dr. Szabó Gergely Gábor, a Bán, S. Szabó, Rausch &amp; Partners Ügyvédi Iroda szabályozási ügyekért felelős vezető ügyvédje. Ezek az EU értékeivel ellentétesek és használatuk tilos. Az AI Act alapján a legmagasabb kockázati csoportba tartoznak azok az AI rendszerek, amelyek a munkahelyi környezetben érzelmekre következtetnek. Az érzelemfelismerő rendszerek használata során a mesterséges intelligencia az ember biometrikus adataiból képes következtetni például a munkavállaló elégedettségi szintjére, mentális állapotára. Elég lehet tehát akár egy mozdulat, egy rosszalló mosoly, vagy akár az emberi hang egyes jellemzői is, például suttogás és az AI máris értékes következtetéseket tesz munkáltató számára. Az érzelemfelismerő rendszerek ilyen jellegű munkahelyi használatát az AI Act egyértelműen tiltja és 2025. február 2.-től komoly következményeket helyez kilátásba.</p>
<p>Az AI Act megsértése súlyos bírságot von maga után, melynek maximális összege akár 35 millió Euró, vagy a vállalkozás éves forgalmának 7%-a lehet, attól függően, hogy melyik súlyosabb.  Vannak azonban olyan kivételes helyzetek, melyek esetében a munkahelyi érzelemfelismerő rendszerek használata mégsem válik tiltottá. Egy biztonsági vagy orvosi okból telepített, vagy forgalomba hozott munkahelyi környezetben használt AI, mely pl. balesetek megelőzése érdekében felismeri a fáradtságot tehergépkocsi-vezetők esetében olyan kivétel, melynek használata az AI Act alapján is engedélyezett. Fontos, hogy bár az ilyen rendszerek használata nem tiltott, de „nagy kockázatú” AI-rendszerek kategóriájába tartoznak, így a „nagy kockázatú” mesterséges intelligenciára vonatkozó szabályok irányadóak rájuk.</p>
<p>&nbsp;</p>
<p><strong>Hogyan szabályozza az AI Act a „nagy kockázatú” mesterséges intelligencia rendszereket a HR-ágazatban?</strong></p>
<p>A foglalkoztatással kapcsolatos „nagy kockázatú” kategória hatálya alá tartozó tevékenységek várhatóan igencsak széles körben érintik majd a HR-ágazatot és a munkáltatókat. Ezek jelentős veszélyt jelentenek a természetes személyek egészségére, biztonságára vagy alapvető jogaira, és bár az AI Act nem tiltja, használatukat szigorú követelmények betartásához köti. A munkáltatóknak és a HR szakembereknek számos technikai, szervezési és védelmi intézkedést meg kell tenniük annak érdekében, hogy az ilyen AI-rendszer használata az AI Act rendelkezéseivel összhangban álljon – emelte ki a Bán, S. Szabó, Rausch &amp; Partners Ügyvédi Iroda szakértője.</p>
<p>Ebbe a kategóriába tartoznak &#8211; a foglalkoztatással és a munkavállalók irányításával összefüggésben &#8211; a toborzásra vagy kiválasztására szánt AI-rendszerek, a munkaviszonyt érintő döntések meghozatalára használt AI, valamint számos olyan funkció, mint az előléptetés, felmondás vagy a teljesítmény értékelése. Épp ezért fontos, hogy az AI rendszerek bevezetésére megfontolt döntést követően hatékony jogi támogatás mellett kerüljön sor – emelte ki dr. Szabó Gergely Gábor.</p>
<p>A HR-ágazatban használt AI-rendszerekkel kapcsolatos követelmények célja az átlátható, megkülönböztetésmentes és méltányos működés biztosítása. A vonatkozó kötelezettségek a teljesség igénye nélkül a következők:</p>
<p>&nbsp;</p>
<ol>
<li><em>Toborzás és kiválasztás</em></li>
</ol>
<ul>
<li>Tájékoztatási kötelezettség: A munkáltatónak, illetve a külsős HR cégnek értesítenie kell az adott pozícióra jelentkezőket, hogy esetükben AI-rendszert alkalmaz az állásinterjúk vagy önéletrajzok értékelésére. A jelölteknek továbbá joguk van megismerni, hogy milyen adatokat és hogyan dolgozott fel az AI a kiválasztás során.</li>
<li>Adatminőség: Az AI-rendszer által használt adatoknak relevánsnak és kellően reprezentatívnak kell lennie a modell rendeltetése szempontjából. Az adatok rendszeres felülvizsgálata elengedhetetlen az esetleges torzítások elkerülése végett, azért, hogy eredményesen biztosítható legyen a diszkriminációmentesség és megelőzhető legyen a téves döntéshozatal.</li>
<li>Diszkriminációmentesség: A munkáltatónak, illetve a külsős HR cégnek gondoskodnia kell arról, hogy az AI-ban alkalmazott algoritmusok ne erősítsék a hátrányos megkülönböztetést, ne tartalmazzanak előítéleteket valamely védett tulajdonság (nem, etnikum, kor stb.) alapján.</li>
<li>Emberi felügyelet: A munkáltatónak, illetve a külsős HR cégnek hatékonyan kell biztosítania az általa alkalmazott AI-rendszerek emberi felügyeletét, úgy, hogy a hozzá értő, kellő szakértelemmel rendelkező személy képes legyen többek között figyelemmel kísérni az AI működését, illetve dönteni a rendszer használatának mellőzéséről, vagy kimenetének figyelmen kívül hagyásáról.</li>
</ul>
<p>&nbsp;</p>
<ol start="2">
<li><em>Munkavállaló értékelése</em></li>
</ol>
<ul>
<li>Tájékoztatási kötelezettség: A munkavállalót, az értékelése során is tájékoztatni kell arról, ha a teljesítményének felméréséhez AI-rendszert vesznek igénybe és arról is, hogy az értékelés során az AI milyen adatokat és hogyan dolgozott fel, illetve milyen szempontokat vett figyelembe.</li>
<li>Emberi felügyelet: Ahogy a toborzás és kiválasztás során is, úgy a munkavállaló értékelése során is biztosítani kell a hatékony emberi felügyeletet a kockázatok csökkentésének érdekében.</li>
<li>Adatvédelem: Az értékelés során AI által felhasznált adatoknak meg kel felelnie a hatályos adatvédelmi szabályoknak.</li>
</ul>
<p>&nbsp;</p>
<ol start="3">
<li><em>Munkaviszonyt érintő döntések meghozatala, a felmondás</em></li>
</ol>
<ul>
<li>Tájékoztatási kötelezettség: Amennyiben a munkaviszonyra vonatkozó döntés, pl. előléptetés, vagy felmondás elhatározására AI-rendszer közreműködésével került sor, a munkáltatónak tájékoztatnia kell az érintettet arról, hogy a döntés meghozatala során AI-t használtak és arról is, hogy az hogyan, milyen szempontok alapján segítette a döntéshozatalt. A munkavállalót tájékoztatni kell továbbá a döntés indokairól és a mögötte húzódó folyamatokról.</li>
<li>Diszkriminációmentesség: A munkáltatónak biztosítania kell a munkaviszony érintő döntések során, hogy az AI-rendszerek kerüljék a nem, kor, etnikum vagy egyéb védett tulajdonság alapján történő hátrányos megkülönböztetést. Azzal, hogy az alkalmazott AI nem válik a megkülönböztetés forrásává, a munkáltató fontos lepést tehet az egyenlő bánásmód eredményes biztosításának irányába.</li>
</ul>
<p><strong> </strong></p>
<p>A fent leírtakon felül általános követelményként fogalmazható meg még az AI-rendszerek használati utasításoknak megfelelő alkalmazása, az átlátható működéshez szükséges technikai feltételek megteremtése, szolgáltató tájékoztatása az AI használata során észlelt hibákról, incidensekről, valamint az AI-rendszer által automatikusan generált naplók megőrzése legalább 6 hónapig, kivéve, ha az uniós vagy nemzeti jog ettől eltérően nem rendelkezik.</p>
<p>&nbsp;</p>
<p><strong>Mi a helyzet a munkahelyi Chatbotok használatával?</strong></p>
<p>Az AI Act alapján nem minősül minden munkahelyi felhasználási eset elfogadhatatlan vagy nagy kockázatúnak. Vannak, magukban csekélyebb veszélyt hordozó felhasználási módok, melyekre enyhébb átláthatósági követelmények vonatkoznak. Az ilyen korlátozott kockázatú AI-rendszerek nem esnek a „nagy kockázatú” kategóriába, mivel nem gyakorolnak jelentős hatást az érdemi döntéshozatalra, ezáltal nem jelentenek számottevő veszélyt az emberek alapvető jogaira, egészségére vagy biztonságára. Erre lehet példa egy szűkebb eljárási feladat elvégzésére használt, vagy egy döntés meghozatalát ténylegesen nem befolyásoló AI. Általában ilyen korlátozott kockázatú mesterséges intelligenciának minősülnek a munkáltatók által használt „Chatbotok”, vagy munkavégzést elősegítő rendszerek is, melyek használata során a legfontosabb követelmény a felhasználó számára egyértelművé tenni, hogy mesterséges intelligenciával kommunikál.</p>
<p>&nbsp;</p>
<p><strong>Elég az AI Act szabályainak megfelelni és hátradőlni?</strong></p>
<p>Az AI Act kapcsán fontos tisztázni, hogy a munkavállalók személyes adatait kezelő, illetve feldolgozó AI-rendszerek esetén az adatvédelmi szabályok, így a GDPR és a Munka törvénykönyve („Mt.”) rendelkezéseit is be kell tartani.</p>
<p>A munkavállalókkal kapcsolatos AI használat kapcsán is fontos, hogy a munkáltató a munkavállalótól csak olyan nyilatkozat megtételét vagy személyes adat közlését követelheti, amely a munkaviszony létesítése, teljesítése, megszűnése szempontjából lényeges. A célhoz kötöttség elvéből következik, hogy az érintett személyes adatait a toborzás és kiválasztás, a munkavállaló értékelése, a munkaviszonyt érintő döntések meghozatala és felmondás során csak olyan mértékben lehet felhasználni, mely az elérni kívánt cél megvalósításához feltétlenül szükséges és erről az érintettet írásban tájékoztatni is kell.</p>
<p>Amennyiben egy korábban meghatározott célra felhasznált adatot kíván a munkáltató egyéb célra felhasználni, akkor ahhoz új jogalapra lesz szüksége (érintett hozzájárulása, törvényi felhatalmazás). Például, ha a HR-osztály a toborzási folyamatok során az érintett önéletrajzából gyűjt adatokat, azt kizárólag a kiválasztási folyamatok során használhatja fel.</p>
<p>Az Mt. és az AI Act vonatkozó szabályait együtt kell alkalmazni. Ez alapján, bár felmerülhet olyan eset, hogy a munkavállaló jogos érdeke alapján lehetőség mutatkozik, többek között a munkavállaló biometrikus adatainak &#8211; a beléptetés során, az érintett azonosítása érdekében történő &#8211; kezelésére, azonban az ilyen azonosítás során kezelt adatok sem használhatók fel más célra, például a munkavállaló érzelmeinek értékelésére.</p>
<p>A munkáltatónak az Mt. 11/A. §-a szerinti tájékoztatás mellett az AI Act szerinti tájékoztatást is meg kell adnia a munkaviszonnyal összefüggő ellenőrzése során. Amennyiben ehhez technikai eszközt alkalmaz, az Mt. 11/A. §-a alapján a munkavállaló írásbeli tájékoztatására van szükség. Abban az esetben viszont, ha a teljesítmény értékeléséhez AI-rendszert is igénybe vesznek, az Mt-ben foglaltakon túl szükséges a munkavállalót tájékoztatni arról is, hogy a teljesítményének felméréséhez AI-rendszert alkalmaznak, és arról, hogy az értékelés során milyen adatokat és hogyan dolgozott fel, illetve milyen szempontokat vett figyelembe az AI.</p>
<p>&nbsp;</p>
<p><strong>Hogyan érdemes felkészülni?</strong></p>
<p>Mindezek alapján kellő körültekintéssel kell lenniük a munkáltatóknak és a HR szakembereknek az AI-rendszerek bevezetése és használata során, mivel számos feltételnek meg kell felelni mind az AI Act, mind a GDPR és az Mt. szempontjából.</p>
<p>Első körben a legfontosabb lépés a használt, vagy használni tervezett eszközök auditjának elvégzése, annak érdekében, hogy megérthessük, hogy a szabályozás hatálya mennyiben érinti a tevékenységünket. Ezt követően érdemes meghatározni, hogy jogszerű működés érdekében mit kell megváltoztatni, ha korábban már alkalmaztunk AI Act szabályozása alá tartozó rendszert. Fontos továbbá gondoskodni a szükséges technikai feltételekről, a megfelelő szabályzatokról, az eszközök felügyeletét ellátó személyek képzéséről, nyilvántartások vezetéséről, valamint a munkavállalók és képviselőik tájékoztatásáról.</p>
<p>&nbsp;</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>A Márkamonitor rádióműsorának mai vendége Báldy Péter</title>
		<link>https://markamonitor.hu/a-markamonitor-radiomusoranak-mai-vendege-baldy-peter/</link>
		
		<dc:creator><![CDATA[Tokaji Tamás]]></dc:creator>
		<pubDate>Thu, 31 Aug 2023 06:20:34 +0000</pubDate>
				<category><![CDATA[Hírek]]></category>
		<category><![CDATA[Kiemelt]]></category>
		<category><![CDATA[AI Act]]></category>
		<category><![CDATA[báldy péter]]></category>
		<category><![CDATA[Európai Parlament]]></category>
		<category><![CDATA[gdpr]]></category>
		<category><![CDATA[Mesterséges intelligencia a gyakorlatban]]></category>
		<guid isPermaLink="false">https://markamonitor.hu/?p=55460</guid>

					<description><![CDATA[Mai vendégem Báldy Péter, az ELTE Állam- és Jogtudományi Kar Jogi Továbbképző Intézetének az igazgató-helyettese. &#160; Az AI Act, a mesterséges intelligenciával kapcsolatos rendelet tárgyalása júliusban történt az Európai Parlamentben, a megszavazott szöveget augusztusban tették közzé. A mai műsorban először azt beszéljük meg, sikerült-e végre tisztázni az alapokat, van-e végre elfogadott definíció erre a sokak [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><strong>Mai vendégem Báldy Péter, az ELTE Állam- és Jogtudományi Kar Jogi Továbbképző Intézetének az igazgató-helyettese.</strong></p>
<p>&nbsp;</p>
<p>Az AI Act, a mesterséges intelligenciával kapcsolatos rendelet tárgyalása júliusban történt az Európai Parlamentben, a megszavazott szöveget augusztusban tették közzé. A mai műsorban először azt beszéljük meg, sikerült-e végre tisztázni az alapokat, van-e végre elfogadott definíció erre a sokak által használt, de nagyon sokféleképen értelmezett technológiára. A képviselők több ezer módosítási javaslatot nyújtottak be, több száz át is ment a bizottsági előkészítésen. Mi az irány, mi mindent akartak megváltoztatni a képviselők? Mennyiben más az új szabályozás, mint az előző volt? Miben különbözik az USA-ban és Kínában érvényes törvényektől? Nagyobb biztonságot vagy csak versenyhátrányt hoz az európai cégeknek?</p>
<p>Az AI Act kapcsán beszélünk az adatvédelemről. Éppen 5 éves a GDPR, áttekintjük annak a gyakorlati alkalmazását.</p>
<p>Végül, de nem utolsó sorban szóba kerül a Mesterséges intelligencia a gyakorlatban konferencia is, ahol Péter előadó lesz.</p>
<p>Hangoljatok este 8-kor a Jazzy rádióra!</p>
<p>A műsor online is hallgatható a <a href="https://jazzy.hu/musorok/markamonitor" target="_blank" rel="noopener">jazzy.hu</a> oldalon. A korábbi adások podcast formában meghallgathatóak a <a href="https://markamonitor.hu/podcast-2/" target="_blank" rel="noopener">Márkamonitoron</a>.</p>
<p>&nbsp;</p>
<figure id="attachment_10333" aria-describedby="caption-attachment-10333" style="width: 150px" class="wp-caption alignnone"><img decoding="async" class="size-full wp-image-10333" src="https://markamonitor.hu/wp-content/uploads/2018/05/szakacs-laszlo.jpg" alt="" width="150" height="149" srcset="https://markamonitor.hu/wp-content/uploads/2018/05/szakacs-laszlo.jpg 150w, https://markamonitor.hu/wp-content/uploads/2018/05/szakacs-laszlo-100x100.jpg 100w" sizes="(max-width: 150px) 100vw, 150px" /><figcaption id="caption-attachment-10333" class="wp-caption-text">Szakács László főszerkesztő</figcaption></figure>
<p>&nbsp;</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Mérföldkőhöz érkezett a mesterséges intelligencia szabályozása az Európai Unióban</title>
		<link>https://markamonitor.hu/merfoldkohoz-erkezett-a-mesterseges-intelligencia-szabalyozasa-az-europai-unioban/</link>
		
		<dc:creator><![CDATA[Kovacs Geza]]></dc:creator>
		<pubDate>Thu, 18 May 2023 07:05:17 +0000</pubDate>
				<category><![CDATA[Hírek]]></category>
		<category><![CDATA[Kiemelt]]></category>
		<category><![CDATA[AI Act]]></category>
		<category><![CDATA[EU]]></category>
		<category><![CDATA[ivsz]]></category>
		<category><![CDATA[mesterséges intelligencia]]></category>
		<guid isPermaLink="false">https://markamonitor.hu/?p=52829</guid>

					<description><![CDATA[2021 áprilisában ugyanis az EU elfogadta a mesterséges intelligencia szabályozása, az AI Act tervezetét. Az új törvényjavaslat végső részleteit a következő hetekben vitatják meg az EU jogalkotó szervei. A tervezett szabályozás fontos lépés a mesterséges intelligencia biztonságos és etikus fejlesztése, egyben a digitális technológia iránti bizalom megerősítése felé. &#160; Az IVSZ álláspontja szerint a technológiai [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><strong>2021 áprilisában ugyanis az EU elfogadta a mesterséges intelligencia szabályozása, az AI Act tervezetét. Az új törvényjavaslat végső részleteit a következő hetekben vitatják meg az EU jogalkotó szervei. A tervezett szabályozás fontos lépés a mesterséges intelligencia biztonságos és etikus fejlesztése, egyben a digitális technológia iránti bizalom megerősítése felé.</strong></p>
<p>&nbsp;</p>
<p>Az <u><a href="https://ivsz.hu/hirek/mi-kihivas-es-lehetoseg/" target="_blank" rel="noopener">IVSZ álláspontja szerint</a></u> a technológiai fejlődés, a digitális transzformáció olyan történelmi kitörési lehetőséget jelent a magyar gazdaság számára, amely a magyar nemzetgazdaságot is segíthet kimozdítani a közepes fejlettség csapdájából. E technológiai fejlődés egyre meghatározóbb elemét jelentik a mesterséges intelligencián alapuló fejlesztések, amelyek a hazai vállalkozások nemzetközi versenyképességét is érdemben javíthatják.</p>
<p>Ezt a fejlődési potenciált korlátozhatja, ha az AI Act életbe lépése nyomán a vállalkozások az MI alkalmazása és fejlesztése kapcsán indokolatlanul szigorú előírásokkal és magas megfelelési terhekkel szembesülnek. Az előzetes piaci várakozások szerint akár 300 ezer euróba is kerülhet az új jogszabálynak való megfelelés a magas kockázatú MI-fejlesztésekkel foglalkozó cégeknek, és 2025-ben uniós szinten együttvéve 5 és 12 milliárd euró között alakulhatnak az ezzel járó kiadások. Ez különösen a magas kockázatú fejlesztéseket végző kkv-k és startupok számára jelenthet gondot, így a szabályozás előírásai versenyhátrányt jelenthetnek ezeknek a vállalatoknak és visszavethetik az innovációt is.</p>
<p><em>„Az innovatív MI-megoldások fejlesztése és elterjedése érdekében szükség lehet a kkv-k és startupok uniós vagy kormányzati támogatására is, hogy a jogszabálynak való megfelelés ne jelentsen nekik aránytalanul nagy terhet. Az IVSZ üdvözli az MI-szabályozást, ugyanakkor szeretnénk felhívni a jogalkotó figyelmét arra, hogy mennyire fontos egy alapjogokat védő, ugyanakkor az innovációt is támogató jogszabályi környezet létrehozása. Úgy gondoljuk, hogy az utóbbi érdekében még van mit tenni. A kockázati besorolását illetően mi például a magas kockázatú fejlesztések definíciójának szűkítését javasoljuk, hogy a vállalatoknak ne kelljen aránytalan adminisztrációs, dokumentációs, riportolási terheket vállalni újító megoldások fejlesztéséért, ne kerülhessenek így versenyhátrányba a globális szereplőkkel szemben”</em> – foglalta össze a szervezet álláspontját dr. Vinnai Balázs, az IVSZ elnöke.</p>
<p>Az IVSZ szerint a mesterséges intelligencia jelentős mértékben alakítja át a gazdaságot és a társadalmat, megjelenése, használata ugyanolyan forradalmi változásokat hozhat, mint a villamos-energia vagy az internet elterjedése. Ezért is különösen fontos, hogy egy széles konszenzuson alapuló, innovációt támogató szabályozásra építve indulhassanak, folytatódhassanak a mesterséges intelligencia fejlesztések. A technológia elsöprő hatása már most látszik, <u><a href="https://www.grandviewresearch.com/industry-analysis/artificial-intelligence-ai-market?fbclid=IwAR3pQZDJy-ic0OOt3zXtmriBAeOjtgipYeSLiTqBuL3lUwdR_AJwxt5WOqU" target="_blank" rel="noopener">egyes elemzések</a></u> szerint a globális MI-piac jelenleg 136,6 milliárd dollárt tesz ki, és az előrejelzések azt mutatják, hogy 2022 és 2030 között 38,1%-os éves növekedéssel fog bővülni.</p>
<p><em>„Mi arra biztatjuk a hazai vállalkozásokat, hogy vizsgálják meg minél gyorsabban, hogyan tudnának a mesterséges intelligenciát alkalmazó megoldások segítségével hatékonyabban működni, illetve, hogy ne álljanak le a potenciális megfelelési költségek ellenére sem az MI fejlesztésekkel, mert aki nem lép időben, menthetetlenül lemaradhat a versenyben</em>” – hangsúlyozta Vinnai Balázs.</p>
<p>&nbsp;</p>
<p><em>Fotó: Steve Johnson/unsplash.com</em></p>
<p>&nbsp;</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
