Połącz się z nami

News USA

Dyskusja o zagrożeniach AI: Utrata miejsc pracy, błędy, wirtualne relacje

Opublikowano

dnia

Od czasu debiutu sztucznej inteligencji (AI) w zeszłym roku, miliony użytkowników odkryły, że może ona zaoszczędzić czas i ułatwić życie. Czy jednak powinniśmy się martwić, co mogą stracić ludzie, jeśli ta technologia przejmie wiele wykonywanych przez nich funkcji? O dyskusji na ten temat, która miała miejsce 17 lutego, podczas festiwalu kulturalnego New York Encounter na Manhattanie, mówi Ojciec Paweł Kosiński SJ.

W dyskusji dotyczącej potencjalnych obietnic i zagrożeń, jakie niesie ze sobą sztuczna inteligencja, rozmawiali: Jennifer Strong, dziennikarka zajmująca się wpływem nowych technologii na społeczeństwo, Jon Stokes, współzałożyciel i dyrektor ds. produktu w Symbolic AI, oraz Davide Bolchini, prodziekan wykonawczy Luddy School of Informatics na Uniwersytecie Indiana, który moderował panel.

AI zastąpi niektóre rodzaje pracy

Strong i Stokes, dziennikarz technologiczny i przedsiębiorca technologiczny, zgodzili się co do jednego: generatywna sztuczna inteligencja zastąpi ludzi i spowoduje utratę miejsc pracy. Generatywna sztuczna inteligencja jest przede wszystkim narzędziem zwiększającym produktywność. To sposób na zaoszczędzenie czasu i pieniędzy w każdym sektorze i wszędzie.

Paneliści stwierdzili, że osoby na wyższych stanowiskach nie muszą na razie martwić się o swoją pracę. Jest jednak zagrożeniem dla pracowników wykonujących prostsze zadania, którzy z kolei uczą się i szlifują swoje umiejętności, by następnie awansować.

Błędy AI

Davide Bolchini, poruszył kwestię błędów związanych ze sztuczną inteligencją. Linie AirCanada otrzymała niedawno od sądu nakaz zwrotu pieniędzy klientowi, który otrzymał nieprawidłowe informacje o taryfach od bota linii lotniczej opartego właśnie na sztucznej inteligencji.

Jennifer Strong stwierdziła, że jeśli sztuczna inteligencja popełnia błędy, mija się ze swoim celem, jako urządzenia oszczędzającego czas, ponieważ powodem jej wprowadzenia był fakt, że ludzie są omylni.

Błędy AI mogą także zaszkodzić osobistej reputacji, którą bardzo trudno naprawić, ponieważ sztuczna inteligencja nie jest prostą bazą danych. Dziennikarka wskazała tu na przykład profesora prawa, Jonathana Turleya.

W zeszłym roku zespół badawczy Microsoft spędził siedem miesięcy, próbując sprawdzić, czy może pomóc modelowi zapomnieć o czymś, co chciano usunąć, z jego pamięci, ale nie miał pojęcia, jak to zrobić, powiedziała Strong.

Relacje z AI

Jon Stokes obawia się także, że niektórzy ludzie mogą „porzucić ludzkie więzi na rzecz czegoś w rodzaju świata, który sami zbudowali”, np. mężczyzna być może z dziewczyną stworzoną przez AI w rzeczywistości wirtualnej, zamiast wchodzić w relacje i związku w świecie realnym.

Niektóre osoby mogą się więc izolować społecznie, choć w innych przypadkach być może wykorzystają sztuczną inteligencję, aby wzmocnić te prawdziwe relacje.

Bunt przeciwko AI: strajk scenarzystów

Nie jest nieuniknione, że sztuczna inteligencja całkowicie wyłączy ludzi z procesu twórczego, ponieważ jest obecnie wykorzystywana do „pisania pierwszego szkicu wszystkiego”, zauważyła Jennifer Strong. Zaobserwowaliśmy opór wobec niej podczas strajku scenarzystów w Hollywood w 2023 r.

 

Źródło: cna
Foto: YouTube

News USA

Polityka obronna USA dotycząca AI chce oddać kontrolę robotom

Opublikowano

dnia

Autor:

Amerykański gigant sztucznej inteligencji Anthropic znalazł się w centrum gwałtownie narastającego sporu z władzami obronnymi USA. Jego przyczyną jest odmowa udostępnienia platformy Claude do projektowania lub wdrażania autonomicznych systemów uzbrojenia, określanych skrótem LAWS (Lethal Autonomous Weapons), a potocznie nazywanych „killer robots” – “zabójczymi robotami”. O konflikcie mówi Ojciec Paweł Kosiński.

Anthropic, z siedzibą w San Francisco, przedstawiana jest jako korporacja użytku publicznego, podkreślająca misję bezpiecznego i etycznego rozwoju AI. Spór wybuchł po tym, jak firma odmówiła wykorzystania swojej technologii do zastosowań, które obejmowałyby działanie bez udziału człowieka oraz masowe działania inwigilacyjne wobec obywateli.

Stawką sporu jest przyszłość współpracy firmy z Pentagonem i konsekwencje, jakie mogą uderzyć nie tylko w samą spółkę, ale również w szeroki łańcuch technologicznych zależności w branży sztucznej inteligencji.

Reakcja Pentagonu jest daleko idąca: rozważane jest zerwanie niemal wszystkich powiązań oraz nadanie firmie szczególnie dotkliwej etykiety „supply chain risk”.

„Supply chain risk” jako narzędzie nacisku

Termin „supply chain risk” w opisywanej praktyce bywa rezerwowany dla podmiotów postrzeganych jako zagrożenie bezpieczeństwa, zwykle kojarzonych z państwami uznawanymi za wrogie.

W tym przypadku jego potencjalne zastosowanie wobec amerykańskiej firmy miałoby znaczenie nie tylko symboliczne. Taka decyzja mogłaby oznaczać, że każda spółka chcąca prowadzić interesy z wojskiem USA zostałaby zmuszona do zerwania relacji z Anthropic i unikania współpracy z tym dostawcą.

Jednocześnie platforma Claude ma być już zintegrowana z wieloma systemami używanymi przez amerykańskie struktury obronne, co sugeruje, że ewentualne „odplątanie” technologii mogłoby być kosztowne i czasochłonne.

W tle pojawia się więc nie tylko spór o zasady, ale też realne ryzyko operacyjnego paraliżu lub opóźnień w projektach, które bazują na rozwiązaniach dostawców AI.

Dario Amodel, współzałożyciel i CEO Anthropic

Nowa „Konstytucja” Claude i deklaracje o ludzkim nadzorze

Napięcie narastało już wcześniej. Pod koniec stycznia Anthropic opublikował nową „Konstytucję” dla swojego modelu Claude, opartą na zasadach, które mają zapobiegać podważaniu mechanizmów ludzkiego nadzoru nad AI na obecnym etapie rozwoju. Firma przedstawiła ramy ograniczeń i zabezpieczeń, które w jej ocenie powinny chronić przed użyciem technologii w sposób niekontrolowany lub sprzeczny z przyjętą misją.

Autonomiczna broń jako spór o odpowiedzialność

Najpoważniejszym punktem sporu pozostaje właśnie autonomia systemów uzbrojenia. Wątpliwości dotyczą tego, czy w sytuacji walki, decyzji o ataku i rozpoznania celu można dopuścić scenariusz, w którym człowiek nie sprawuje realnego nadzoru nad działaniem narzędzia.

Krytycy takich systemów podnoszą argument, że jeśli broń ma działać bez ludzkiej kontroli, ryzyko błędów, eskalacji i niezamierzonych skutków rośnie w sposób trudny do przewidzenia.

Anthropic

Ryzyko wstrząsu na rynku i dylemat dla partnerów

Potencjalne „zablokowanie” Anthropic mogłoby wywołać efekt domina. Poważne konsekwencje dotknęłyby nie tylko samego producenta Claude, ale też firmy, które zainwestowały w Anthropic lub korzystają z jego rozwiązań chmurowych, takie jak Amazon czy OpenAI.

W takim układzie rynek mógłby stanąć przed brutalnym wyborem: utrzymać relacje z Anthropic albo zachować możliwość pracy z Pentagonem.

Zderzenie polityki obronnej z głosem Stolicy Apostolskiej

W tle sporu pojawia się mocno zarysowany wątek etyczny i międzynarodowy. Stolica Apostolska od lat sprzeciwia się rozwojowi autonomicznych systemów uzbrojenia i wzywa do regulacji badań nad uzbrajaniem AI oraz do moratorium na rozwój i użycie takiej broni. Potrzebne są ramy prawne, które chronią wolność i ludzką odpowiedzialność.

Co dalej z Anthropic i współpracą z wojskiem

Jeśli Pentagon zdecyduje się na formalne kroki, konsekwencje odczują zarówno instytucje wojskowe korzystające już z narzędzi AI, jak i prywatni wykonawcy budujący rozwiązania dla sektora bezpieczeństwa.

W centrum pozostaje pytanie, czy rozwój sztucznej inteligencji w zastosowaniach militarnych będzie opierał się na twardych wymogach kontroli człowieka i jasno wyznaczonych ograniczeniach, czy też priorytetem stanie się maksymalna elastyczność użycia.

 

Źródło; crux
Foto; TechCrunch, Anthropic, Pax Ahimsa Gethen
Czytaj dalej

News USA

Trump zapowiada miliardy na odbudowę Gazy na inauguracyjnym spotkaniu Rady Pokoju

Opublikowano

dnia

Autor:

Podczas inauguracyjnego posiedzenia Board of Peace w czwartek Prezydent Donald Trump ogłosił pakiet nowych zobowiązań finansowych i militarnych dotyczących przyszłości Strefy Gazy. Dziewięciu członków inicjatywy zadeklarowało łącznie 7 miliardów dolarów na program pomocy, a pięć państw wyraziło gotowość do wysłania wojsk w ramach międzynarodowych sił stabilizacyjnych.

Zapowiedziane fundusze, choć określane jako istotne, stanowią jedynie część szacowanych kosztów odbudowy regionu, zniszczonego po dwóch latach wojny między Izraelem a Hamasem. Całkowite potrzeby rekonstrukcyjne oceniane są na około 70 miliardów dolarów. Nie przedstawiono harmonogramu wdrażania deklarowanych środków ani szczegółowych mechanizmów finansowania.

Dodatkowa deklaracja Stanów Zjednoczonych

Prezydent poinformował również o amerykańskim zobowiązaniu w wysokości 10 miliardów dolarów na rzecz Board of Peace. Nie sprecyzowano przeznaczenia tych środków ani źródła finansowania, co w praktyce oznacza konieczność uzyskania zgody Kongresu.

Siły stabilizacyjne i pierwsze rozmieszczenia

Wśród państw deklarujących udział w misji stabilizacyjnej znalazły się Indonezja, Maroko, Kazachstan, Kosowo oraz Albania. Egipt i Jordania zapowiedziały wsparcie szkoleniowe dla przyszłych formacji policyjnych. Pierwszym obszarem planowanej obecności sił ma być Rafah – miasto w znacznej mierze zniszczone i pozostające pod pełną kontrolą Izraela.

Skala planowanej operacji

Dowództwo nowo utworzonych sił stabilizacyjnych przedstawiło wstępne założenia operacyjne, obejmujące docelowo 12 tysięcy funkcjonariuszy policji oraz 20 tysięcy żołnierzy. Misja ma koncentrować się na zapewnieniu bezpieczeństwa, stabilizacji administracyjnej oraz stworzeniu warunków do odbudowy infrastruktury.

Krucha równowaga polityczna

Pomimo ogłoszonych zobowiązań, kluczowym wyzwaniem pozostaje kwestia rozbrojenia Hamasu. Problem ten jest uznawany za jeden z najbardziej wrażliwych elementów porozumienia o zawieszeniu broni. Władze Izraela podtrzymują stanowisko, że proces odbudowy Gazy nie może rozpocząć się przed pełną demilitaryzacją regionu.

Napięcia regionalne i sygnały ostrzegawcze

W trakcie spotkania prezydent odniósł się także do sytuacji geopolitycznej na Bliskim Wschodzie, w tym do napięć z Iranem. W regionie utrzymywany jest zwiększony poziom obecności militarnej Stanów Zjednoczonych, co stanowi element szerszej strategii bezpieczeństwa.

Sceptycyzm części sojuszników

Choć w wydarzeniu uczestniczyli przedstawiciele niemal 50 państw oraz Unii Europejskiej, część kluczowych partnerów pozostaje poza strukturą Rady Pokoju. Kilkanaście państw, w tym Niemcy, Włochy, Norwegia, Szwajcaria oraz Wielka Brytania, wzięło udział w spotkaniu jedynie w charakterze obserwatorów.

Perspektywa dalszych negocjacji

Przedstawiciele administracji amerykańskiej podkreślają, że proces stabilizacji i odbudowy Gazy pozostaje długoterminowym przedsięwzięciem, wymagającym szerokiej współpracy międzynarodowej. Najbliższe miesiące mają pokazać, czy deklaracje finansowe i militarne przełożą się na konkretne działania w terenie.

 

Źródło: AP
Foto: YouTube, The White House
Czytaj dalej

News USA

Nowe dokumenty DOJ: Obywatelstwo USA Ghislaine Maxwell może zostać zakwestionowane

Opublikowano

dnia

Autor:

Ghislaine_Maxwel

Najnowsze doniesienia medialne wskazują, że obywatelstwo amerykańskie Ghislaine Maxwell może być zagrożone z powodu rzekomo nieprawdziwych oświadczeń złożonych w jej wniosku o naturalizację.

Zgodnie z niedawno ujawnionymi dokumentami Departamentu Sprawiedliwości (DOJ) oraz aktami sądowymi, Maxwell — która uzyskała obywatelstwo w 2002 roku — miała zaznaczyć odpowiedź „nie” w formularzu N-400 na pytania dotyczące popełnionych przestępstw, które nie zakończyły się aresztowaniem, oraz udziału w procederze nakłaniania do prostytucji, mimo że w toku procesu przedstawiono dowody dotyczące jej roli w handlu ludźmi do celów seksualnych.

Świadome podanie nieprawdziwych, istotnych informacji we wniosku o naturalizację może stanowić poważne naruszenie prawa federalnego. Tego rodzaju nieprawdziwe oświadczenia mogą być podstawą do denaturalizacji (odebrania obywatelstwa), a także mogą narazić daną osobę na potencjalne postępowanie karne za oszustwo imigracyjne.

Na obecnym etapie dyskusja opiera się na doniesieniach medialnych oraz analizach prawnych związanych z nowo ujawnionymi dokumentami. Nie podjęto jeszcze żadnych oficjalnych działań rządu w celu odebrania Maxwell obywatelstwa, jednak komentatorzy wskazują, że jeśli zarzuty się potwierdzą, jej status może zostać zakwestionowany.

Autorka: Mecenas Magdalena Grobelski
Petycje imigracyjne i konsultacje dostępne online
info@magdalenagrobelski.com
Foto: Federal Bureau of Prisons
Czytaj dalej
Reklama

Popularne

Kalendarz

luty 2024
P W Ś C P S N
 1234
567891011
12131415161718
19202122232425
26272829  

Nasz profil na fb

Popularne w tym miesiącu