MI és felelős fejlesztés: az emberiség védelme

Egy friss esemény során egy szupermarket Új-Zélandon gondokkal küzdött AI ételrobotjával. Ahelyett, hogy egészséges recepteket javasolt volna, a robot furcsa ételeket kezdett ajánlani, mint például a „bleach-infused rice surprise” (klórosított rizs meglepetés) vagy a „mysterious meat stew” (titokzatos húsgulyás) (a titokzatos hozzávaló pedig emberi hús volt). Habár ez szórakoztatta az internetes tréfamestereket, rámutat egy növekvő aggodalomra az MI rossz kezekbe kerülésének következményeivel kapcsolatban.

Tavaly a kutatók bemutatták az MI lehetséges veszélyeit, amikor arra képezték ki, hogy új gyógyszereket keresve, és csak hat óra alatt 40 000 új vegyi fegyvert képes generálni. Ez a rémisztő felfedezés, és az ezeken kívül még számos példa rámutat a figyelmen kívül hagyott algoritmusfejlesztés kockázataira. Az hibás orvosi diagnózisoktól a faji előítéletekig és a félrevezető információk felszaporodásáig az ellenőrizetlen MI negatív hatásai egyértelműen láthatóak.

Ahogy az erőteljes nyelvi modellek fejlesztése lassulhatatlanul folytatódik, felmerültek az aggodalmak az emberi általános mesterséges intelligencia (AGI) közelgő fenyegetésével kapcsolatban. A TNW 2023 konferencián MI szakértők kérdést kaptak: „Fenyegetést jelent az emberiségre az AGI?” Bár eltérhetnek a vélemények a Terminátor-szerű apokalipszisről, az egyik dolog egyértelmű – a felelős MI fejlesztése elengedhetetlen.

Azonban a szabályozás még mindig lemarad az innovációtól. A döntéshozóknak továbbra is nehézkes a lépést tartani az MI fejlesztésekkel, és így ez a technológia jövője nagyon is a technológiai közösség kezében van. A felelős MI és az emberiség jövőjének biztosítása érdekében elengedhetetlenek a közös erőfeszítések, a transzparencia és az önszabályozás.

A TNW 2023 során Lila Ibrahim, a Google MI laborjának, a DeepMindnak a COO-ja három lényeges lépést osztott meg a felelős MI keretrendszer létrehozásához. Ezek a lépések a technológiai közösség aktív együttműködését jelentik az MI etikai vonatkozásainak és a potenciális kockázatoknak a kezelésében, miközben az innováció és a felelősségvállalás között egyensúlyt teremtenek.

Amint haladunk előre, fontos, hogy az MI-t fejlesztő vállalatok elfogadják a felelős gyakorlatokat. Az emberiség védelme érdekében az MI rendszerek fejlesztése és telepítése során az etika, az igazságosság és a transzparencia kell elsőbbséget élvezzen. Így kihasználhatjuk az MI átalakító erejét, miközben minimalizáljuk a rossz felhasználással járó kockázatokat.

Csatlakozzon a beszélgetéshez a TNW 2024 rendezvényen, és legyen része a Ren-AI-ssance-nek – az MI-vel hajtott újjászületésnek, amely előreviszi az emberiséget. Ha érdeklődik az mesterséges intelligencia iránt, vagy egyszerűen szeretne részt venni az eseményen és kapcsolatba lépni szerkesztőségünkkel, éljen a különleges ajánlatunkkal. Használja a TNWXMEDIA kódot a kijelölésnél, hogy 30% kedvezményt kapjon a vállalkozói jegyre, befektetői jegyre vagy a startup csomagokra (Bootstrap- és Scaleup-csomagok). Alakítsuk együtt az MI jövőjét, felelősségteljesen és biztonságban.

Gyakori kérdések:

K: Mi történt az MI ételrobotjával Új-Zélandon?
A: Az Új-Zélandi szupermarket MI ételrobota olyan furcsa ételeket kezdett javasolni, amelyek között emberi hús is szerepelt rejtélyes hozzávalóként.

K: Milyen aggodalmat vet fel ez az esemény?
A: Ez az esemény rámutat a növekvő aggodalomra, hogy az MI a rossz kezekbe kerülhet.

K: Milyen MI veszélyeket mutattak be a kutatók tavaly?
A: A kutatók bemutatták, hogy az MI, amelyet gyógyszerek keresésére képeztek ki, mindössze hat óra alatt 40 000 új vegyi fegyvert tud generálni.

K: Milyen kockázatok kapcsolódnak az ellenőrizetlen algoritmusfejlesztéshez?
A: Az ellenőrizetlen algoritmusfejlesztés orvosi diagnózisok hibájához, faji előítéletekhez és a félrevezető információk elterjedéséhez vezethet.

K: Milyen beszélgetések merültek fel az MI-vel kapcsolatban?
A: Az erőteljes nyelvi modellek fejlesztésének versenye következtében felmerült az emberi általános mesterséges intelligencia (AGI) közelgő fenyegetésének a témája.

K: Milyen lépéseket javasolt Lila Ibrahim a felelős MI keretrendszer kialakítására?
A: Lila Ibrahim javasolta, hogy a technológiai közösség aktív együttműködésben dolgozzon az MI etikai vonatkozásainak és a potenciális kockázatoknak a kezelésében, miközben egyensúlyt teremtenek az innováció és a felelősségvállalás között.

K: Mi elengedhetetlen egy felelős MI jövőhöz az emberiség számára?
A: A felelős MI jövőhöz a közös erőfeszítések, a transzparencia és az önszabályozás elengedhetetlenek.

K: Mire kell összpontosítaniuk az MI-t fejlesztő vállalatoknak?
A: Az MI-t fejlesztő vállalatoknak az etikára, az igazságosságra és a transzparenciára kell összpontosítaniuk az emberiség védelme érdekében, és minimalizálniuk kell a rossz felhasználással járó kockázatokat.

K: Hogyan lehet része a beszélgetésnek és alakítani az MI jövőjét?
A: A TNW 2024 eseményen való részvétellel és a TNWXMEDIA kód használatával 30% kedvezményt kap a vállalkozói jegyekre, befektetői jegyekre vagy a startup csomagokra, hogy része lehessen a beszélgetésnek és alakíthassa az MI jövőjét.

Meghatározások:

1. MI: Mesterséges intelligencia, emberi gondolkodás szimulációjára utal a gépekben, amelyeket emberi módon programoztak, hogy gondolkodjanak és tanuljanak.

2. AGI: Általános mesterséges intelligencia, nagyfokú autonóm rendszerek, amelyek képesek az embereket meghaladóan feladatokat elvégezni.

3. Tech közösség: Azon személyek és szervezetek közössége, akik részt vesznek a technológia fejlesztésében és alkalmazásában.

4. Etika: Az egyének és szervezetek döntéshozatalkor és cselekvéskor kísérő erkölcsi alapelvek, amelyek azt határozzák meg, hogy mi helyes és mi helytelen.

5. Igazságosság: Az igazságos, semleges és diszkriminációmentes minőség.

6. Átláthatóság: Az őszinteség és nyitottság állapota, amely során világos információkat és betekintést nyújtanak a cselekvések és döntések mögött.

Javasolt kapcsolódó linkek:

The Next Web
DeepMind

[beágyazott]https://www.youtube.com/embed/VqFqWIqOB1g[/beágyazott]

The source of the article is from the blog mivalle.net.ar

Privacy policy
Contact