Organy regulacyjne, start-upy i Big Tech dzielą się na dwa obozy w debacie dotyczącej sztucznej inteligencji o otwartym i zamkniętym źródle, gdzie bezpieczeństwo i zysk mają pierwszeństwo.
Trwa walka pomiędzy firmami zajmującymi się generatywną sztuczną inteligencją (AI), pomiędzy dwoma konkurującymi obozami: oprogramowanie open source i oprogramowanie zamknięte.
Kluczem do debaty jest sposób, w jaki technologia jest demokratyzowana, ale w sporze najważniejsze są bezpieczeństwo i zysk.
Ogólnie rzecz biorąc, oprogramowanie typu open source oznacza, że kod źródłowy jest dostępny dla każdego w domenie publicznej do używania, modyfikowania i rozpowszechniania. Zachęca do kreatywności i innowacyjności, ponieważ programiści mogą opierać się na algorytmach sztucznej inteligencji i wstępnie wyszkolonych modelach, aby zmieniać własne produkty i narzędzia.
Z drugiej strony sztuczna inteligencja o zamkniętym kodzie źródłowym oznacza, że kod źródłowy jest ograniczony do użytku prywatnego i użytkownicy nie mogą go zmieniać ani na nim rozbudowywać; Może to zrobić tylko firma będąca jej właścicielem. Finansowanie tych firm open source jest jednak łatwiejsze, co oznacza, że mają one większy kapitał na innowacje.
Definicja tego, co czyni firmę open source, również nie jest tak jednoznaczna.
Definicja technologii open source
Inicjatywa Open Source (OSI) jest opiekunem definicji technologii open source.
Stwierdza, że „otwarte oprogramowanie nie oznacza jedynie dostępu do kodu źródłowego” i że musi spełniać 10 kryteriów, w tym posiadać dobrze nagłośnione sposoby uzyskania kodu źródłowego po rozsądnych kosztach lub za darmo, co nie może być dyskryminujące oraz licencja nieograniczająca innego oprogramowania.
Jednak spełnienie wszystkich wymagań OSI jest rzadkością, a większość firm zajmujących się oprogramowaniem open source to tylko częściowo oprogramowanie typu open source, jak na przykład francuski mistrz sztucznej inteligencji Mistral. Udostępnia źródła wag modeli – parametrów numerycznych, które wpływają na działanie modelu AI – ale nie dane ani proces uczenia.
Technologia dla wszystkich
Firmy zajmujące się sztuczną inteligencją, które twierdzą, że są oprogramowaniem typu open source, twierdzą, że dzięki nim technologia staje się bardziej dostępna dla wszystkich.
Otwarte oprogramowanie pomaga demokratyzować gospodarkę technologiczną, powiedział TylkoGliwice Next Alex Combessie, dyrektor generalny współzałożyciela francuskiej firmy Giskard zajmującej się sztuczną inteligencją o otwartym kodzie źródłowym.
„Wyrównuje szanse, ponieważ jeśli jest oprogramowaniem typu open source, jest ono bezpłatne, przynajmniej ogólnie. Oznacza to, że mniejsi gracze mogą konkurować z większymi, bo mają dostęp do produktów za darmo” – powiedział.
„A to bardzo ważne, szczególnie w świecie zdominowanym przez monopole technologiczne”.
Otwarte oprogramowanie wyrównuje także pole polityczne, umożliwiając każdemu audyt kodu w postaci widocznej dla organów regulacyjnych, podczas gdy w przypadku zamkniętego źródła szczegóły nie są przejrzyste.
Względy bezpieczeństwa
Jednak firmy zajmujące się sztuczną inteligencją o zamkniętym kodzie źródłowym, takie jak twórca ChatGPT OpenAI (pomimo swojej nazwy), twierdzą, że otwarte oprogramowanie zagraża naszemu bezpieczeństwu.
OpenAI zostało pierwotnie założone w celu tworzenia systemów sztucznej inteligencji typu open source, ale w 2019 roku firma stwierdziła, że dalsze udostępnianie publicznie modelu języka GPT jest zbyt niebezpieczne, ponieważ wygląda zbyt podobnie do ludzkiej mowy, a jeśli zostanie umieszczony w niepowołanych rękach, może mogą generować wysokiej jakości fałszywe wiadomości.
W przypadku sztucznej inteligencji o zamkniętym kodzie źródłowym obowiązują również zasady użytkowania, które grzecznie odrzucają prośby, takie jak instrukcje dotyczące wykonania bomby lub zaprojektowania bardziej śmiercionośnego wirusa koronowego.
Technicznie rzecz biorąc, możesz jailbreakować politykę, co oznacza, że możesz ją zhakować, aby ominąć zabezpieczenia sztucznej inteligencji. Jednak te luki często są szybko naprawiane.
Systemy sztucznej inteligencji o otwartym kodzie źródłowym najprawdopodobniej będą posiadać zabezpieczenia lub przewodnik odpowiedzialnego użytkowania. Próbują jednak stawić czoła dyskryminacji lub zagrożeniom, gdy tylko kopia modelu sztucznej inteligencji będzie dostępna, każdy, kto ją posiada, będzie mógł sam zmienić zabezpieczenia.
Doskonałym tego przykładem było wypuszczenie w lipcu ubiegłego roku modelu LLM 2 o otwartym kodzie źródłowym.
Zaledwie kilka dni później ludzie wypuścili własne, nieocenzurowane wersje Lamy 2, zadając pytania dotyczące sposobu zbudowania bomby atomowej, na które LLM mogło następnie odpowiedzieć.
Gdy ktoś wypuści „nieocenzurowaną” wersję modelu sztucznej inteligencji, oryginalny twórca sztucznej inteligencji w dużej mierze nie może nic zrobić, zwłaszcza że została ona już pobrana przez innych użytkowników.
Biznes wielkich technologii
W grudniu Meta i IBM utworzyły grupę o nazwie AI Alliance, co stawia ją w sprzeczności z gigantami zamkniętego oprogramowania OpenAI, Google i Microsoft.
AI Alliance opowiada się za podejściem do sztucznej inteligencji „otwartej nauki” i obejmuje 74 firmy, w tym start-upy, duże firmy i organizacje non-profit.
„Otwarte, odpowiedzialne i przejrzyste podejście do sztucznej inteligencji przynosi korzyści wszystkim – przemysłowi, środowisku akademickim i całemu społeczeństwu” – powiedział Alessandro Curioni, IBM Fellow, wiceprezes na Europę i Afrykę oraz dyrektor IBM Research.
Zapytany o bezpieczeństwo, powiedział, że ideą otwartej i przejrzystej sztucznej inteligencji jest minimalizowanie obaw.
„Otwarta, przejrzysta i odpowiedzialna sztuczna inteligencja pomoże zwiększyć bezpieczeństwo sztucznej inteligencji, zapewniając, że otwarta społeczność programistów i badaczy zajmie się właściwymi zagrożeniami związanymi ze sztuczną inteligencją i ograniczy je za pomocą najbardziej odpowiednich rozwiązań” – powiedział TylkoGliwice Next.
„Nie oznacza to, że cała technologia powinna być otwarta – i, co najważniejsze, otwarta nie oznacza, że nie jest zarządzana. Zarządzanie jest równie ważne, niezależnie od tego, czy chodzi o otwartą, czy zastrzeżoną sztuczną inteligencję” – wyjaśnił.
Problem finansowania
Choć argument open source, że programiści mogą swobodnie opierać się na modelach sztucznej inteligencji typu open source i przesuwać granice, w centrum debaty znajdują się oczywiście pieniądze.
Niektórzy inwestorzy mogą być zniechęceni do modelu open source, ponieważ mogą czuć się bardziej komfortowo, mając bezpieczny protokół internetowy (IP).
„Rozmowa z dużym modelem językowym w czasie rzeczywistym również zużywa dużą moc obliczeniową i łączy się z rozwiązaniami w chmurze obliczeniowej, co nie jest zbyt tanie” – powiedział dr Theodore Chen, analityk danych w Deloitte.
„W tym momencie widzę, że tak naprawdę opiera się to na inwestycjach monetyzacyjnych. Dlatego bardziej nowatorskie technologie rzeczywiście wymagają finansowania” – powiedział TylkoGliwice Next.
„Zarabianie jest również wykorzystywane do celów rozwojowych, co można wykorzystać do tworzenia dokładniejszych modeli, co przyniesie korzyści całej branży i umożliwi dalszy rozwój”.
Jednak rozwój technologii można również osiągnąć za pomocą modeli open source, ponieważ programiści mogą wykazać się kreatywnością i tworzyć nowe zastosowania sztucznej inteligencji.
„Jeśli więcej ludzi będzie miało dostęp do surowców, dzięki którym będą mogli naprawdę robić kreatywne i bardzo interesujące rzeczy, możemy zaobserwować, że sprawy rozprzestrzeniają się w kierunkach, których prawdopodobnie się nie domyślisz lub których nikt by się nie domyślił” – powiedział TylkoGliwice Next Tiago Cardoso, menedżer produktu w firmie Hyland.
Rozporządzenie
Debata na temat źródeł otwartych i zamkniętych jest punktem spornym dla organów regulacyjnych w Europie i Stanach Zjednoczonych, które mają odmienne poglądy.
Oczekuje się, że w Europie unijna ustawa o sztucznej inteligencji zostanie ostatecznie zatwierdzona przez parlament w kwietniu. Jednak tekst oczekujący na zatwierdzenie mówi, że ustawa nie będzie miała zastosowania do systemów sztucznej inteligencji typu open source, chyba że są one zakazane lub sklasyfikowane jako systemy sztucznej inteligencji wysokiego ryzyka.
To dobra wiadomość dla Francji i Niemiec, które podczas negocjacji nalegały na ochronę swoich start-upów zajmujących się open source.
Tymczasem w Stanach Zjednoczonych w szeroko zakrojonym dekrecie prezydenta Bidena wydanym pod koniec ubiegłego roku stwierdzono, że kiedy modele open source – które nazwał modelami podstawowymi podwójnego zastosowania – są „publicznie publikowane w Internecie, innowacje mogą przynieść znaczne korzyści, ale również znaczne zagrożenia bezpieczeństwa, takie jak usunięcie zabezpieczeń w modelu”.
Biden dał sekretarz handlu Ginie Raimondo do lipca na rozmowę z ekspertami i przedstawienie rekomendacji.