W ostatnich miesiącach bardzo głośno jest o sztucznej inteligencji nowej generacji. Do tego sanu rzeczy przyczynił się przede wszystkim ChatGPT, opracowany przez OpenAI w Kalifornii, który potrafi symulować człowieka, generować wiersze, opowiadania, eseje, a nawet udzielać porad osobistych. Program może jednak także produkować fałszywe streszczenia naukowe, które są wystarczająco przekonujące, by zmylić recenzentów ludzkich.
Po rozwiązania firmy z Kaliforni już sięgnęli nie tylko zwykli użytkownicy ale i naukowcy. Legalne zastosowania ChatGPT w przygotowywaniu artykułów naukowych doprowadziły już do tego, że program był wymieniony jako współautor kilku prac naukowych.
Sytuacja ta skłoniła wielu wydawców tysięcy czasopism naukowych do podjęcia działań. Zabronili stosowania lub znacznie ograniczyli oni możliwość korzystania z zaawansowanego chatbota opartego na sztucznej inteligencji o nazwie ChatGPT w pracach publikowanych na łamach ich wydawnictw. Powodem jest obawa, że program może zanieczyścić akademicką literaturę wadliwymi lub nawet sfałszowanymi badaniami naukowymi.
Holden Thorp, redaktor naczelny wiodącego amerykańskiego czasopisma Science, ogłosił zaktualizowaną politykę redakcyjną, która zabrania używania tekstu z ChatGPT i precyzuje, że program nie może być wymieniany jako autor.
Wiodące czasopisma naukowe wymagają od autorów podpisania oświadczenia o odpowiedzialności za ich wkład w pracę. Ponieważ ChatGPT nie może tego zrobić, nie może być uważany za autora, jak stwierdził profesor Thorp.
Inni wydawcy wprowadzili podobne zmiany. W wytycznych Springer-Nature, który publikuje niemal 3 000 różnych czasopism naukowych, wskazano, że ChatGPT nie może być wymieniony jako autor. Wydawca nie wycofał się jednak z użycia ChatGPT w ogóle. Narzędzie, i podobne do niego, wciąż mogą być używane w przygotowaniu prac naukowych, pod warunkiem, że pełne informacje są ujawnione w manuskrypcie.
Magdalena Skipper, redaktor naczelny Nature, uważa z kolei, że właściwe ustalenie reguł wykorzystania chatbotów pozwolą ChatGPT i podobnym narzędziom AI przynosić korzyści dla nauki, w szczególności wyrównując szanse dla osób nie-mówiących płynnie w języku angielskim, które mogą używać programów AI do poprawy języka w ich pracach naukowych.
Elsevier, który publikuje około 2 800 czasopism, w tym Cell i Lancet, zajął podobne stanowisko do Springer-Nature. Jego wytyczne pozwalają na użycie narzędzi AI “do poprawy czytelności i języka artykułu naukowego, ale nie do zastępowania kluczowych zadań, które powinny być wykonane przez autorów, takich jak interpretacja danych lub wyciąganie naukowych wniosków”, powiedział Andrew Davis z Elseviera, dodając, że autorzy muszą zadeklarować, czy i jak korzystali z narzędzi AI.
Michael Eisen, redaktor naczelny eLife, powiedział, że ChatGPT nie może być uważany za autora, ale widzi jego wykorzystanie jako nieuniknione. “Myślę, że lepsze pytanie nie dotyczy tego, czy pozwolić na jego użycie, ale jak zarządzać faktem, że jest on stosowany“, powiedział.
Najważniejsze jest teraz, żeby autorzy byli bardzo szczegółowi w deklarowaniu jego użycia i opisaniu, jak był wykorzystywany, a my musimy jasno określić, że korzystając z narzędzia, autorzy biorą na siebie odpowiedzialność za jego wyniki.
Michael Eisen
Sandra Wachter, profesor regulacji technologii na Uniwersytecie w Oksfordzie, powiedziała:
To wspaniałe, że wydawcy podejmują działania. ChatGPT pozwala na cięcie narożników, co jest szczególnie niepokojące, jeśli proponowane treści nie są rygorystycznie podwójnie sprawdzane, tylko zakładane za prawidłowe. Może to prowadzić do dezinformacji i badania junk science. Myślę, że wiele innych sektorów, takich jak edukacja, sztuka i dziennikarstwo, będzie musiało zastanowić się nad podobnymi krokami, ponieważ stoją przed podobnymi wyzwaniami
Sandra Wachter
ChatGPT oraz inne algorytmy bazujące na sztucznej inteligencji będą w mojej opinii pewnego rodzaju game changerem w nadchodzących latach i rewolucją taką jaką był internet. Zmieni on sposób pracy w wielu obszarach gospodarczych, zniweluje wiele barier np. językowych, niepełnosprawności itp. ale także spowoduje że pojawi się wiele nowych zagrożeń. To otworzy jednak drogę do nowych rynków i branż – również związanych z IT i cyberbezpieczeństwem. Podobnie było i jest z internetem. Uważam, że nie ma możliwości odwrotu, a wszelkie próby zahamowania tego trendu (jak np. delegalizacja ChatGPT we Włoszech czy wspomniany zakaz wykorzystywania ich do pisania prac naukowych) nie odniosą sukcesu.
Wiele znanych osób i autorytetów ze środowiska IT i nowych technologii jak Bill Gates czy Elon Musk są pełni obaw o sposób wykorzystania tego narzędzia i skutki ekonomiczne i gospodarcze, które oczywiście podzielam. Uważam jednak, że temat AI to temat przyszłości i należy się pogodzić z faktem wejścia ludzkości w erę sztucznej inteligencji i przekuć to na własną korzyść.
Artykuł powstał na podstawie z artykułu w The Guardian oraz z wykorzystaniem ChatGPT 🙂