<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title></title>
	<atom:link href="https://markamonitor.hu/tag/bletchley-declaration/feed/" rel="self" type="application/rss+xml" />
	<link>https://markamonitor.hu</link>
	<description></description>
	<lastBuildDate>Wed, 01 Nov 2023 20:33:37 +0000</lastBuildDate>
	<language>hu</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.1</generator>

<image>
	<url>https://markamonitor.hu/wp-content/uploads/2018/07/cropped-favicon-32x32.png</url>
	<title>Márkamonitor</title>
	<link>https://markamonitor.hu</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>A mesterséges intelligencia biztonságos fejlesztéséről írtak alá nyilatkozatot az angliai AI-konferencia résztvevői</title>
		<link>https://markamonitor.hu/a-mesterseges-intelligencia-biztonsagos-fejleszteserol-irtak-ala-nyilatkozatot-az-angliai-ai-konferencia-resztvevoi/</link>
		
		<dc:creator><![CDATA[Tokaji Tamás]]></dc:creator>
		<pubDate>Thu, 02 Nov 2023 07:05:23 +0000</pubDate>
				<category><![CDATA[Hírek]]></category>
		<category><![CDATA[ai]]></category>
		<category><![CDATA[Alan Turing]]></category>
		<category><![CDATA[Artificial Intelligence]]></category>
		<category><![CDATA[biotechnológia]]></category>
		<category><![CDATA[Bletchley Declaration]]></category>
		<category><![CDATA[dezinformáció]]></category>
		<category><![CDATA[kiberbiztonság]]></category>
		<category><![CDATA[mesterséges intelligencia]]></category>
		<guid isPermaLink="false">https://markamonitor.hu/?p=57256</guid>

					<description><![CDATA[A mesterséges intelligencia (artificial intelligence, AI) biztonságos alkalmazásáról és a kockázatok feltárásáról írtak alá nyilatkozatot a brit kormány által összehívott kétnapos magas szintű nemzetközi szakkonferencia résztvevői a rendezvény szerdai nyitónapján. &#160; A találkozót Bletchley Park kastélyában, a brit katonai hírszerzés kódfejtésre szakosodott egykori titkos központjában tartják. Itt működött a második világháború idején az a csoport, [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><strong>A mesterséges intelligencia (artificial intelligence, AI) biztonságos alkalmazásáról és a kockázatok feltárásáról írtak alá nyilatkozatot a brit kormány által összehívott kétnapos magas szintű nemzetközi szakkonferencia résztvevői a rendezvény szerdai nyitónapján.</strong></p>
<p>&nbsp;</p>
<p>A találkozót Bletchley Park kastélyában, a brit katonai hírszerzés kódfejtésre szakosodott egykori titkos központjában tartják. Itt működött a második világháború idején az a csoport, amely feltörte a német hadvezetés által megfejthetetlennek hitt Enigma-kódot. Ezt a kódot használták az Atlanti-óceán északi vizein szövetséges konvojokra vadászó, a háború első szakaszában súlyos veszteségeket okozó német tengeralattjárók kommunikációjához is. A kódfejtő csoportot Alan Turing vezette, akit a modern számítástudomány és a mesterséges intelligencia koncepciójának megalapozójaként tisztel a tudományos utókor.</p>
<p>A Downing Street szerdai tájékoztatása szerint az AI-biztonsági konferencia nyitónapján 28 ország és szervezet, köztük az Egyesült Államok, Kína, India, Japán, Izrael, Ukrajna, valamint az Európai Unió aláírta a Bletchley Declaration nevű nyilatkozatot, amely sürgős feladatnak nevezi a mesterséges intelligencia jelentette potenciális kockázatok felismerését és kollektív kezelését. A deklaráció szerint a konferencián egyetértés született arról, hogy a mesterséges intelligencia fejlesztésében benne van &#8222;a szándékos vagy akaratlan, de súlyos, sőt katasztrofális károkozás lehetősége&#8221;.</p>
<p>A dokumentum szerint e rizikótényezők közé tartoznak a kiberbiztonsági, biotechnológiai és dezinformációs kockázatok is. A rendezvény résztvevőihez intézett szerdai üzenetében III. Károly király úgy fogalmazott: ha a világ ki akarja aknázni a mesterséges intelligencia kínálta felmérhetetlen előnyöket, akkor közösen kell fellépnie az AI-technológiai jelentette komoly kockázatok ellen is.<br />
A brit uralkodó kijelentette: az AI-technológia fejlődése egyre gyorsabban halad olyan modellek felé, amelyek kezelése egyes előrejelzések szerint túlterjedhet az emberiség jelenlegi képességein, sőt felfogóképességén is. A király szerint éppen ezért sürgősen, egységesen, kollektív erőfeszítéssel kell kezelni az AI-technológia fejlesztésével járó kockázatokat.</p>
<p>Elon Musk milliárdos amerikai technológiai nagyvállalkozó, aki az általa birtokolt X &#8211; korábbi nevén Twitter &#8211; portálon csütörtökön élő beszélgetést tart Rishi Sunak brit kormányfővel, a konferencia szerdai nyitánya előtt annak a véleményének adott hangot, hogy az AI-technológiát &#8222;akár az emberiség kiirtására is beprogramozhatják azok, akik erre törekszenek, pusztán abból a meggondolásból, hogy az emberek rosszak&#8221;.</p>
<p>A brit kormány megbízásából készült, a konferencia vitairataként összeállított 45 oldalas átfogó szakértői jelentés is a fő kockázatok közé sorolja, hogy a mesterséges intelligencia alkalmazása megkönnyítheti a biológiai, a vegyi és a sugárszennyezést okozó fegyverek előállítását, illetve a kibertámadások végrehajtását.</p>
<p><em>Forrás: MTI</em></p>
<p>&nbsp;</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
