Vous êtes sur la page 1sur 6

Science 2.

0 – próba usystematyzowania
Michał Lisok1 i Piotr Pomykała2
Akademia Górniczo-Hutnicza im. St. Staszica w Krakowie
1
email: mlisok@gmail.com
2
email: piotr.pomykala@gmail.com

Charakterystyka artykułu
Założenia Science 2.0 mając nacechowanie naukowe czerpią w
przeważającej mierze swoje wytyczne z rozwiązań społecznościowych
wdrożonych uprzednio w „technologiach” Web 2.0 i People 2.0. Stanowią
próbę mariażu podejścia badawczego z internetową formą komunikacji i
współegzystencji. Skupiać będziemy się więc na objaśnieniu charakteru
zjawiska, jego obecnych kształtów, przykładów zastosowania oraz
perspektyw rozwoju.
Rodzące się wątpliwości oraz wiele nieraz nieprecyzyjnych definicji,
rozproszonych w przestrzeni Internetu powoduje duże zdezorientowanie i
niespójne pojmowanie omawianego tematu. Trudności z pozyskaniem jasnej
odpowiedzi na te ogólne kwestie klasyfikacyjne utrudniają oraz nierzadko
zniechęcają potencjalnych odbiorców w próbach dotarcia do prawdziwego
obrazu koncepcji Science 2.0, a także budować mogą mylne o niej
wyobrażenie.
Artykuł ten ma na celu wyjaśnienie tworzącej się koncepcji Science 2.0 oraz
stanowi on próbę usystematyzowania mglistych definicji i wyobrażeń na
temat poruszanego zagadnienia i zebranie ich w akceptowalnej, atrakcyjnej
formie.

1 Wstęp
Głównym założeniem pojęcia Science 2.0 jest położenie nacisku na udostępnianie
wiedzy o charakterze naukowym oraz ułatwienie komunikacji środowisk
badawczych. Badaczami nie są tu jednak tylko osoby posiadające odpowiednie
kwalifikacje, ale każda jednostka mogąca wnieść wartościowy wkład w procesy
poznawcze.
Konieczność zmian i próby nadążenia za zmieniającym się światem wymiany
informacji w mediach elektronicznych wymusiły powstanie nowego podejścia także
w świecie nauki. Termin Science 2.0 jest nawiązaniem do koncepcji Web 2.0, która
stała się przyczynkiem do rewolucyjnych zmian, jakie obserwujemy w ostatnich
latach.
2 Rozwinięcie zagadnienia

2.1 Historia powstania


Za punkt narodzin koncepcji przyjąć można rok 2005, kiedy zaczeły ukazywać się
pierwsze artykuły traktujące o nowym podejściu do nauki.
Przyjmuje się, że przed tym okresem występował jedynie styl tworzenia wiedzy
określany jako Science 1.0, w którym jakość wyniku pracy zależna była wyłącznie od
reputacji i wykształcenia. Druga generacja naukowej strony sieci określała wprost
przeciwne założenia nobilitując jakość postrzeganą przez pryzmat prawdziwej
wartości dzieła, liczbę jego odczytów, cytowań, i typu wywołanych komentarzy.
Postanowiono zaadaptować przy tym reguły wyjęte z credo wzorcowego
odpowiednika – Web 2.0.

Wzorce projektowe Web 2.0 Założenia Science 2.0


Poleganie na jednostce jako składowej Wiele małych laboratoriów może
dokonać więcej niż pojedyncze duże
centra badawcze
Podejście data-driven Koncentracja na danych większości
naukowców (metadane, provenance,
kontekst, powiązania)
Wkład wnoszony przez użytkownika – Uwspólnienie i współuczestnictwo w
świadomie i nieświadomie pracach
Reakcja na aktywność innych Komentarze, rekomendacje,
„inteligencja” społeczności
Maksymalizacja otwartości Otwarte biblioteki, oprogramowanie,
dane, blogi i wiki
Wieczna wersja beta Częste, ale niewielkie ulepszenia,
wyniki oraz wnioski
Software ponad poziomem Pervasive computing
pojedynczego urządzenia

Tab. 1: Przystosowanie idei Web 2.0 do Science 2.0 [2].

2.2 Założenia idei


Tradycyjne podejście do nauki zakłada publikację rezultatów badań po poprawnie
zakończonym procesie pozyskiwania i opracowywania wyników. Science 2.0 stara się
odejść od tej praktyki przez sugerowanie częstych uaktualnień postępów prac, które w
większej części znajdują się w tzw. fazie beta [1], czyli niekoniecznie w pełni
sfinalizowanych etapach prac.
Współdzielenie owoców działalności naukowej jest jednym z podstawowych
warunków istnienia tego nowego obszaru Internetu. Przybiera ono jednak zupełnie
odmienny niż dotychczas charakter, który wiąże się z zaangażowaniem działaczy
dotychczas niezrzeszonych i nie posiadających specjalistycznych uprawnień, bądź
dokonań na polu naukowym, a z drugiej strony równie mocno stawia na ich
równouprawnienie z profesjonalistami.
Stworzenie środowiska przeznaczonego do dzielenia się myślą techniczną na
miarę naszych czasów stanowi priorytet starań zaintersowanych grup przybierających
raczej rolę wolontariuszy, posługując wspólnemu dobru.
Kwestia otwartości i niemal nieograniczone możliwości dowolnego dalszego
przetwarzania udostępnianych owoców prac pozwala w znaczny sposób zwiększyć
tempo postępów powiązanych projektów lub stanowić punkt wyjścia do rozpoczęcia
własnych działań w dziedzinie, w której poczyniono już pewne postępy lub zabiegi
przygotowawcze.
Science 2.0 ma być ponadto rozwiązaniem dla jedostek i organizacji
specjalizujących się w danych obszarach wiedzy lub rozproszonych po świecie, a
pragnących kolaborować w celu złożenia sprawnie funkcjonującego zespołu
badawczego. Udogodnienia te obejmować powinny nie tylko dostęp do danych i
przebiegu postępowań, lecz również sprawne kanały komunikacyjne, współgrające, a
w większości zintegrowane z nowoczesnym środowiskiem badawczym.

2.3 Wkład naukowców-amatorów


Granica pomiędzy twórcą a odbiorcą treści powinna być z założenia bardziej
płynna, a możliwe staje się to dzięki uaktywnieniu drugiej strony tej relacji, nieraz
skutkującym zaangażowaniem w przedsięwzięcie projektowe. Odbywać może się ono
na bardzo wielu polach, poczynając od najprostszych, polegających na wnoszeniu
swojego wkładu w postaci komentarzy aktualnie upublicznionych dokonań poprzez
wyrażanie własnych opinii i sugestii, wskazując potencjalne dalsze kierunki rozwoju,
bądź konieczność zmian opracowań.
Jakość artykułu lub innego rodzaju produktu, rozpatrywana w kompletnej
separacji od uprzednich dokonań autora, winna stać się głównym i jedynym
wyznacznikiem popularności i naukowej wartości dzieła. Tym sposobem zwiększone
zostają w sposób znaczny szanse niecertyfikowanych badaczy-amatorów na
odniesienie sukcesu o światowym zasięgu oraz stanowią one w tejże formie
dodatkowy bodziec do swoistego wkładu własnego w rozwój umiłowanych obszarów
wiedzy. Efektem tych posunięć staje się ucieczka od ekskluzywnej elitarności
niechętnych do współpracy gremiów specjalistów.
Laboratorium przybiera w tej technologii zupełnie inny wymiar. Stają się nim
pojedyncze komputery partycypantów eksperymentów, które nie posiadają cech
scentralizowanych ani nie mieszczą się w definicji instytucji naukowych sensu stricte.
Czas pracy nie jest limitowany, w osobisty wkład może być wnoszony o każdej porze
dnia i nocy. Mamy w tym wypadku do czynienia także z tzw. efektem sieci, w którym
łączna liczba jednostek badawczych w zdecydowany sposób przewyższa tę, możliwą
do osiągnięcia w ramach tradycyjnej organizacji. Jeśli mowa już o laboratorium, nie
sposób nie wspomnieć o innych przyrządach badawczych, które nie sprowadzają się
jedynie do komputerów. Specjalistyczny sprzęt, jak teleskopy [3] czy inne drogie
urządzenia pomiarowe, mogą być udostępniane społeczności na potrzeby ich
własnych badań lub dla celów czysto poglądowych. Tego typu niski poziom
granulacji w sposób znaczący pozytywnie odbija się na redukcji kosztów
generowanych przez wszelkiego rodzaju przedsięwzięcia naukowego, szczególnie te,
większej skali.
Z racji dostępności jako jednej z fundamentalnych reguł, tworzone są nie tylko
platformy wymiany doświadczeń i spotrzeżeń, ale także dąży się do upublicznienia
zbiorów rozlokowanch w cieszących się renomą placówkach badawczych, które do
tej pory pozostawały niedostępne dla przeciętnego użytkownika lub dostęp do nich
był niemożliwy z racji geograficznego oddalenia. Słowo pisane przeżywa także swój
renesans w postaci niskobudżetowych, bo w rzeczywistości wymagających jedynie
nakładu pracy związanego z ich opracowaniem, periodyków naukowych, dostępnych
najczęściej wyłącznie w formie elektronicznej. Odmienną, acz powiązaną areną
posunięć jest cały zbiór wolnych multimedialnych encyklopedii o nieprzerwanym
cyklu twórczym. Powstające z zasadami wiki-commons materiały nie posiadają
wspólnego autora, a są czystym przykładem zaangażowania społeczeństwa
entuzjastów [3].
Typowym przykładem autorskiej inicjatywy są blogi naukowe, czyli portfolio
dokonań i przemyśleń ludzi doświadczających życia od strony technicznej. Mogą
stanowić one osobne inicjatywy, bądź być zgrupowane w większe portale
odpowiednio do tego celu przystosowane.

2.4 Otwartość oprogramowania i danych


Wyniki odseparowane zupełnie od struktur, w jakich powstały, nie stanowiłyby
większej zachęty do współudziału odbiorców. Stąd też zrodził się pomysł
równoległego współdzielenia oprogramowania pozwalającego na uzyskanie danych
rezultatów. Rozprowadzanie ich na otwartych licencjach oraz opcja sugestii
wytycznych zmian i zgłaszania dostrzeżonych błędów dla „czytelników“ nie
chcących bezpośrednio angażować się w ich proces rozwojowy, stanowi niezwykłe
ułatwienie w kwestii zrozumienia tematu i odcisnąć może swoje piętno na jego
przyszłym kształcie i funkcjonalności.
Komputeryzacja doprowadziła do sytuacji, w której dane nie przybierające
odpowiedniej formy stają się prawie bezużyteczne. Dlatego też równie ważne jak ich
samo tworzenie jest stosowanie się do przyjętych standardów zapisu, by nie utracić
ich znaczenia (por. sematic web). Ze względu na dalsze perspektywy przetwarzania
nieodłączne staje się zawieranie informaji niskopoziomowych typu metadanych, które
umożliwiają agentom komputerowym wykorzystanie rezulatatów prac. Starania
autorów nigdy nie są oderwane od świata rzeczywistego i cechują się pewnym
kontekstem, który również powinien być zaakcentowany, a samo ich pochodzenie i
ogólnie pojęta historia powstania i użycia dokładnie dokumentowana (ang..
provenance). Mogą ponado wiązać się lub wchodzić w skład innych projektów, na
potrzeby których były preparowane lub korzystać z gotowych wypracowań.

2.5 Facebook a obliczenia naukowe (w wersji 2.0)


Era dominacji portalu Facebook.com w sieci globalnej nie mogła nie wywrzeć
nacisku na konepcję Science 2.0. Oprócz możliwości zaadaptowania samego
podejścia stawia ona w innym świetle procesy badawcze, wiążąc je z życiem
codziennym. Tak, jak publikacja aktualnych „myśli”, spostrzeżeń i dokonań
upływającego dnia w przytoczonym podejściu, nauka nowej generacji skłania do
integracji powszednich dokonań i prób eksperymentalnego ukierunkowania w
kontakcie z rzeczywistością, doceniając przy tym amatorów wiedy. Stanowi
sprzężenie nauki z życiem codziennym.
Jednym z często pomijanych aspektów Science 2.0 jest wzrost motywacji do
dalszych działań za sprawą odzewu członków społeczności, ich wsparcia, a także
niewąpliwej chęci rywalizacji, która realizowana być może pod postacią pewnych
rankingów stowarzyszonych z posunięciami w obszarze dokonań, typu ilości i jakości
wkładu pracy, aktywności, kończąc na wywołanych reakcjach członków
zgrupowania.

2.6 „Pervasive computing“


Kiedy mobilność rozumiana jako wkroczenie Internetu w urządzenia przenośne
staje się teraźniejszością, krąg terminali oraz urządzeń wyposażonych w pewną moc
obliczeniową powinien być rozpatrywany na wyższym pozimomie niż tylko
komputerów stacjonarnych. Smartfony, PDA i inne tego typu rozwiązania
przewyższają obecnie sprawnością komputery PC sprzed kilkunastu lat. Wszystkie
one mogą wnieść cenny wkład w rozwój nauk. Mamy tutaj na myśli przede
wszystkim możliwość stałego dostępu do miejsc składowania wytworów działań, a
także przez swoją wszechobecność – przekazywania istotnych danych z miejsc do tej
pory niedostępnych dla większych jednostek technicznych. Z tego powodu również
oprogramowanie powinno zostać poddane korekcji i uwzględniać w potencjale swego
działania współdziałanie na wielu jednostkach jednocześnie. Zmiany tego rodzaju
(coraz powszechniejsza komputeryzacja, często niezauważalna – oprócz ww.
urządzeń przenośnych termin odnosi się także do „myślących“ urządzeń użytku
codziennego, np. sprzętu AGD, czy mikrochipów umieszczanych w ubraniach lub
biżuterii) opisywane są angielskim określeniem pervasive computing.

2.7 Przykłady istniejących realizacji


 Blogi naukowe - scientificblogging.com
 Naukowy odpowiednik Facebooka – myexperiment.org
 Progresywne, „eksperymentalne” wiki - openwetware.org
 Udostępnianie zbiorów oraz opracowywanie fachowych periodyków -
plos.org, biomedcentral.com
 Zestaw aplikacji wspomagających kolaboratywne doświadczenia -
researchgate.net
 Mikroblogi związane z tematyką Science 2.0 na portalu Twitter -
tweepml.org/40sciencebase-scientwists/Program Performance

2.8 Perspektywy rozwoju Science 2.0


Mimo swoich oczywistych zalet, sposób przekazywania wiedzy w Science 2.0
budzi pewne wątpliwości, szczególnie u tradycjonalistów. Największym problemem
w ogólnym przyjęciu się Science 2.0 wydaje się być także największą zaleta tego
podejścia – jest to otwartość. Wielu naukowców zarzuca temu sposobowi
prowadzenia badań brak ochrony przed np. atakami hakerskimi czy zwykłym
wandalizmem (który często można zauważyć na przykład na Wikipedii), zwolennicy
teorii bronią się jednak odpowiednimi zabezpieczeniami, takimi jak konieczność
rejestracji (wraz z potwierdzeniem przynależności do organizacji badawczej) oraz
możliwość przywrócenia dowolnej wersji strony wiki.
Dużo poważniejszym problemem jest mentalność samych naukowców [4], którzy
obawiają się umieszczać w internecie rezultatów swoich prac - często niekompletnych
lub błędnych, w obawie przed wyśmianiem przez innych badaczy, niekiedy
nowatorskich na tyle, aby być wartymi osobnej publikacji lub nawet nagrody czy
patentu (wtedy ważne jest, aby pomysły nie zostały skradzione przez konkurencję).
Odpowiedzią jest przejście na kolaboratywną pracę (Science 2.0) zamiast
kompetetywnej (nie tracąc jednak aspektu współzawodnictwa, aczkolwiek raczej w
wymiarze uzyskania jak największego udziału we wspólnym zadaniu, a nie osobnych
próbach wykonania tego samego eksperymentu) – uczestnicy dzielą się wszystkimi
wynikami oraz wrażeniami z przeprowadzanych działań w celu uzyskania
rozwiązania problemu, natomiast znaczniki czasowe pomagają ustalić prym co do
danego odkrycia. Ilość pozytywnych komentarzy czy cytowań pozwala także podać
pewien wyznacznik w kwestii wartości danej informacji. Należy nadmienić, że
podane rozwiązanie niekoniecznie musi nadawać się do każdego laboratorium,
szczególnie jeśli w grę wchodzą patenty lub prywatność pacjentów i wyników ich
badań.
Mimo problemów, widzianych przez środowiska naukowe, Science 2.0 jest bardzo
dobrze rozwijającą się gałęzią nauki, skupiającą nie tylko młodych naukowców-
studentów, ale i doświadczonych profesorów. Wiele laboratoriów chwali sobie
polepszenie współpracy i lepszej organizacji pojedynczej jednostki jako takiej dzięki
wykorzystaniu wiki lub blogów, także wielu naukowców-amatorów jest zachęconych
do czynnej współpracy i wykorzystania zasobów takiej organizacji. Coraz więcej
laboratoriów przyjmuje ten schemat otwartej, wspólnej pracy nad eksperymentami
naukowymi, zamiast obsesyjnego zacięcia na priorytetach i publikacjach, które
obecnie króluje w środowiskach naukowych.

3 Wnioski
Science 2.0 wydaje się być jedynym możliwym kierunkiem, jaki może obrać
współczesna nauka, by nadal pozostawać atrakcyjną, a nawet zwiększyć swe walory.
Szerokie grono odbiorców, jakie jest w dzisiejszych czasach w stanie bezproblemowo
korzystać z wysiłków społeczności i wnosić swój, sumarycznie wielki wkład do
tychże, stanowi siłę napędową rozpatrywanej innowacji.

Bibliografia
1. What is Web 2.0 (30.09.2005), Tim O'Reilly, dostęp 22:06, 12.06.2010,
http://www.oreillynet.com/lpt/a/6228
2. The new e-Science, David De Roure, dostęp 19:58, 8.06.2010,
http://www.semanticgrid.org/presentations/NeweScienceManchester.ppt
3. Science 2.0, Wikipedia, The Free Encyclopedia, dostęp 22:44, 12.06.2010,
http://en.wikipedia.org/w/index.php?title=Science_2.0&oldid=367597075
4. Science 2.0: Great New Tool, or Great Risk?, M. Mitchell Waldrop , dostęp 12:44,
13.06.2010, http://www.scientificamerican.com/article.cfm?id=science-2-point-0-great-
new-tool-or-great-risk

Vous aimerez peut-être aussi