Metody badawcze w anatomii człowieka. Prezentacja z biologii „Nowoczesne metody badania człowieka” (8 klasa)

Większość znanych dziś diagnostycznych metod badawczych, laboratoryjnych i instrumentalnych, powstała w celu badania zmian strukturalnych w narządach człowieka. Różne rodzaje badań pacjentów, mikroskopy, badania biochemiczne, różnego rodzaju badania rentgenowskie, w tym z substancjami nieprzepuszczalnymi dla promieni rentgenowskich, różne modyfikacje urządzeń komputerowych lub rezonansu magnetycznego, badania ultrasonograficzne, przyrządy światłowodowe, cewniki, urządzenia do analizy aktywności elektrycznej narządy (serce, mózg) są szeroko stosowane.) itp. Jednak nawet najnowocześniejsza i bardzo droga aparatura pozwala jedynie na indywidualne badanie różnych układów fizjologicznych człowieka i wchodzących w ich skład narządów.

Obecnie medycyna wykorzystuje pięć najbardziej informacyjnych wizualnych (pozwalających na uzyskanie obrazów narządów i tkanek) metod badania pacjentów.

Zdjęcia rentgenowskie (radiografia). Jakakolwiek modyfikacja tej metody wykorzystuje promieniowanie rentgenowskie. Zasadniczo metoda ta pozwala zobaczyć elementy ludzkiego szkieletu.

Ultradźwięk. Podczas badania ultrasonograficznego rejestrowane są fale dźwiękowe emitowane przez piezokryształ i odbite od tkanek narządów w celu późniejszej konstrukcji obrazów warstwa po warstwie. Metoda ma ograniczoną rozdzielczość i niską jakość obrazu. Jest jednak stosunkowo bezpieczny, praktyczny i tani, dlatego dość często wykorzystuje się go w diagnostyce.

Z tomografią komputerową w promieniach rentgenowskich (metoda CT) obrazy przekrojowe obiektu uzyskuje się poprzez obliczenia oparte na zdjęciach rentgenowskich wykonanych w wielu kierunkach. Metoda pozwala na odtworzenie obrazów anatomicznych z dużą rozdzielczością przestrzenną i w dowolnej wybranej płaszczyźnie.

Metoda magnetycznego rezonansu jądrowego (NMR lub MR) lub obrazowanie metodą rezonansu magnetycznego (MRI). Obiekt badań umieszczony jest w środku potężnego magnesu, który służy do ustawiania dipoli magnetycznych różnych jąder w elementach ludzkiego ciała. Równowaga ta zostaje zakłócona za pomocą impulsów o częstotliwości radiowej. Szybkość, z jaką różne atomy i cząsteczki powracają do swojego pierwotnego, stabilnego stanu, mierzy się za pomocą specjalnych przyrządów. Pozwala to na wyświetlenie nie tylko gęstości tkanek, ale także ich parametrów biochemicznych.

W kilku placówkach tomografii komputerowej i rezonansu magnetycznego osiągnięto rozdzielczość mniejszą niż jeden milimetr.

Pozytonowa tomografia emisyjna (PET) - jedna z najnowszych metod diagnostyki funkcjonowania narządów i tkanek organizmu człowieka lub zwierzęcia, wykorzystująca metody fizyki jądrowej.

Przypomnijmy niektóre pojęcia ze szkolnych zajęć z fizyki. Rozpad radioaktywny Lub radioaktywność- spontaniczna zmiana składu lub struktury jąder atomowych poprzez emisję kwantów gamma lub cząstek elementarnych. Radioaktywna to każda substancja zawierająca jądra radioaktywne.

Metoda PET opiera się na zjawisku dobrze znanym w fizyce jądrowej rozpad beta pozytonów. Istotę tego zjawiska można wyjaśnić następująco. Wstrzykiwany do organizmu człowieka radiofarmaceutyczny(RP), czyli związek biologicznie aktywny znakowany substancją radioaktywną emitującą pozytony. Następnie radiofarmaceutyk jest rozprowadzany po całym organizmie poprzez przepływ krwi i limfy. Podczas rozpadu radioaktywnego w tkankach żywego organizmu, pozytony są antycząstkami elektronu. Kiedy pozyton oddziałuje z elektronem, unicestwienie(zniszczenie) dwóch cząstek materiału i powstają dwa kwant gamma (foton) pole elektromagnetyczne (dwie fale). Dlatego można nazwać metodę PET dwufotonowa tomografia emisyjna. Następnie za pomocą specjalnego sprzętu detekcyjnego rejestruje się kwanty gamma emitowane podczas rozpadu promieniotwórczego.

Zatem, PET to metoda trójwymiarowego badania organizmu, oparta na zdolności radiofarmaceutyków do akumulacji w tkankach o dużej aktywności biologicznej, na przykład nowotwory, mózg, serce itp. Jest oczywiste, że pomimo dość dużej zawartości informacji, metoda ta ma szereg poważnych i niebezpiecznych skutków ubocznych.

Metody te dają najwięcej informacji ze wszystkich istniejących, jeśli pacjent ma już uszkodzenia tkanek lub narządów, ale żadna z tych metod nie pomoże ocenić, jak faktycznie funkcjonują narządy. Będziemy dalej nazywać metody określania, jak faktycznie funkcjonują ludzkie narządy lub układy. diagnostyka funkcjonalna.

Funkcjonalne narzędzia diagnostyczne obejmują różne modyfikacje urządzenia Doktor Vol(w oparciu o metody medycyny orientalnej). W tym przypadku mierzone są prądy mikroamperowe przepływające przez określone kanały w organizmie człowieka. Niektóre aktualne wartości są uważane za normalne, a odchylenia od tych wartości w tym czy innym kierunku są interpretowane jako zaburzenia w funkcjonowaniu narządów lub układów fizjologicznych w organizmie człowieka. Jednak ze względu na małą powtarzalność wyników pomiarów i pewną subiektywność w interpretacji uzyskanych wyników, metoda ta nie ma dużego charakteru informatywnego.

Uwaga!

Żadne badanie nie jest całkowicie dokładne. Im gorszy stan pacjenta, tym wyższy stopień wiarygodności uzyskanych wyników.

Czasami u zdrowej osoby stwierdza się odchylenia od normy (wynik fałszywie dodatni), ale nie można ich zidentyfikować u pacjenta (wynik fałszywie ujemny). Im bardziej czuły i kosztowny sprzęt, tym większe prawdopodobieństwo, że może wskazywać na obecność chorób, które w rzeczywistości nie istnieją. Aby uniknąć błędów lub przynajmniej zmniejszyć ich prawdopodobieństwo, podczas badania konieczne jest zastosowanie kilku zasadniczo różnych technik.

Uwaga!

Współczesna medycyna nie ma jednej metody instrumentalnej diagnostyki chorób człowieka, która nie wpływałaby na organizm (diagnoza często jest szkodliwa dla zdrowia).

Uwaga!

Wszystkie istniejące metody diagnozowania osoby mogą jedynie rejestrować fakt obecności choroby, a przyczyny większości chorób ludzkich są nieznane współczesnej nauce.

Z reguły wszystkie nowe rozwiązania w zakresie sprzętu diagnostycznego mają na celu zwiększenie czułości (rozdzielczości) istniejących urządzeń i udoskonalenie istniejących metod badawczych. Współczesna medycyna nie ma jeszcze zasadniczo nowych i bezpiecznych metod diagnozowania i badania ludzi.

Ludzkość od dawna jest przyzwyczajona do wszystkich dobrodziejstw naszej cywilizacji: elektryczności, nowoczesnych urządzeń gospodarstwa domowego, wysokiego standardu życia, w tym wysokiego poziomu opieki medycznej. Dziś człowiek ma do dyspozycji najnowocześniejszy sprzęt, który z łatwością wykrywa różne zaburzenia w funkcjonowaniu narządów i wskazuje wszelkie patologie. Dziś ludzkość aktywnie wykorzystuje odkrycie Kondrata Roentgena - promienie rentgenowskie, które później na jego cześć nazwano „promieniami rentgenowskimi”. Metody badawcze wykorzystujące promieniowanie rentgenowskie stały się powszechne na całym świecie. Promienie rentgenowskie wykrywają defekty w konstrukcjach o najróżniejszym charakterze, skanują bagaże pasażerów i, co najważniejsze, chronią ludzkie zdrowie. Ale nieco ponad sto lat temu ludzie nie mogli nawet sobie wyobrazić, że to wszystko jest możliwe.

Obecnie najpopularniejsze są metody badawcze wykorzystujące promieniowanie rentgenowskie. A lista badań przeprowadzonych z wykorzystaniem diagnostyki rentgenowskiej jest imponująca. Wszystkie te metody badawcze pozwalają na identyfikację bardzo szerokiego zakresu chorób i pozwalają na skuteczne leczenie we wczesnym stadium.

Pomimo tego, że we współczesnym świecie szybko rozwijają się nowe metody badania zdrowia człowieka i diagnostyki, w różnego rodzaju badaniach silną pozycję zajmują metody badań radiologicznych.
W artykule omówiono najczęściej stosowane metody badania rentgenowskiego:
. Najbardziej znaną i popularną metodą jest radiografia. Służy do uzyskania gotowego obrazu części ciała. Wykorzystuje promienie rentgenowskie na wrażliwym materiale;
. Fluorografia - obraz rentgenowski jest fotografowany z ekranu, co odbywa się za pomocą specjalnych urządzeń. Najczęściej tę metodę stosuje się podczas badania płuc;
. Tomografia to badanie rentgenowskie zwane warstwą po warstwie. Stosowany w badaniu większości części ludzkiego ciała i narządów;
. Fluoroskopia - na ekranie monitora uzyskuje się obraz rentgenowski, dzięki któremu lekarz może badać narządy w trakcie ich pracy.
. Radiografia kontrastowa – metodą tą bada się układ lub poszczególne narządy poprzez wprowadzenie do badania rentgenowskiego specjalnych substancji, które są nieszkodliwe dla organizmu, ale sprawiają, że obiekt badania jest dobrze widoczny w badaniach rentgenowskich (są to tzw. środki kontrastowe). Metodę tę stosuje się wtedy, gdy inne, prostsze metody nie dają niezbędnych wyników diagnostycznych.
. W ostatnich latach radiologia interwencyjna bardzo się rozwinęła. Mówimy o wykonaniu zabiegu chirurgicznego, który nie wymaga skalpela, w ramach Wszystkie te metody sprawiają, że operacja chirurgiczna jest mniej traumatyczna, skuteczna i opłacalna. Są to innowacyjne metody, które w przyszłości znajdą zastosowanie w medycynie i będą coraz bardziej udoskonalane.

Diagnostyka rentgenowska to także jedna z głównych dziedzin, w których potrzebna jest specjalistyczna porada, a czasem jedyna możliwa metoda postawienia diagnozy. Diagnostyka rentgenowska spełnia najważniejsze wymagania wszelkich badań:
1. Technika zapewnia wysoką jakość obrazu;
2. Sprzęt jest możliwie bezpieczny dla pacjenta;
3. Wysoka powtarzalność informacyjna;
4. Niezawodność sprzętu;
5. Niskie zapotrzebowanie na konserwację sprzętu.
6. Opłacalność badań.

Pod warunkiem kontrolowanych dawek są bezpieczne dla zdrowia człowieka. Biologiczne działanie małych dawek promieni rentgenowskich, zaliczanych do promieniowania jonizującego, nie powoduje zauważalnego szkodliwego wpływu na organizm, a dzięki dodatkowej osłonie badanie staje się jeszcze bezpieczniejsze. Badania rentgenowskie będą wykorzystywane przez ludzkość w medycynie jeszcze przez wiele lat.

Metodologia - zestaw manipulacji, których wdrożenie zapewnia uzyskanie niezbędnych wyników zgodnie z zadaniem.

Analityczno-syntetyczna metoda badawcza- sposób na badanie funkcjonowania organizmu w sposób całościowy, w jedności i wzajemnym powiązaniu wszystkich jego elementów.

Metody badawcze w fizjologii

Do badania różnych procesów i funkcji żywego organizmu stosuje się metody obserwacji i eksperymentu.

Obserwacja - metoda uzyskiwania informacji poprzez bezpośrednią, zwykle wizualną rejestrację zjawisk i procesów fizjologicznych zachodzących w określonych warunkach.

Eksperyment- metoda pozyskiwania nowych informacji o związkach przyczynowo-skutkowych pomiędzy zjawiskami i procesami w warunkach kontrolowanych i kontrolowanych. Eksperyment ostry to taki, który przeprowadza się przez stosunkowo krótki okres czasu. Eksperyment, który trwa długo (dni, tygodnie, miesiące, lata) nazywa się chronicznym.

Metoda obserwacji

Istotą tej metody jest ocena przejawów określonego procesu fizjologicznego, funkcji narządu lub tkanki w warunkach naturalnych. Jest to pierwsza metoda, która wywodzi się ze starożytnej Grecji. W Egipcie podczas mumifikacji otwierano zwłoki, a kapłani analizowali stan różnych narządów w powiązaniu z zarejestrowanymi wcześniej danymi dotyczącymi tętna, ilości i jakości moczu oraz innych wskaźników obserwowanych osób.

Obecnie naukowcy prowadzący badania obserwacyjne dysponują w swoim arsenale szeregiem prostych i skomplikowanych urządzeń (aplikacja przetok, wszczepienie elektrod), co pozwala w bardziej wiarygodny sposób określić mechanizm funkcjonowania narządów i tkanek. Na przykład obserwując aktywność gruczołów ślinowych, możesz określić, ile śliny wydziela się w określonym okresie dnia, jej kolor, grubość itp.

Jednak obserwacja zjawiska nie daje odpowiedzi na pytanie, w jaki sposób przeprowadzany jest ten lub inny proces lub funkcja fizjologiczna.

Metoda obserwacyjna jest szerzej stosowana w zoopsychologii i etologii.

Metoda eksperymentalna

Eksperyment fizjologiczny to ukierunkowana interwencja w organizm zwierzęcia, mająca na celu poznanie wpływu różnych czynników na jego indywidualne funkcje. Taka interwencja wymaga czasami chirurgicznego przygotowania zwierzęcia, które może mieć postać ostrą (wiwisekcja) lub przewlekłą (chirurgia eksperymentalna). Dlatego eksperymenty dzieli się na dwa typy: ostre (wiwisekcja) i przewlekłe.

Metoda eksperymentalna, w przeciwieństwie do metody obserwacyjnej, pozwala poznać przyczynę realizacji procesu lub funkcji.

Wiwisekcja przeprowadza się we wczesnych stadiach rozwoju fizjologicznego u unieruchomionych zwierząt bez stosowania znieczulenia. Ale począwszy od XIX w. W ostrych eksperymentach stosowano znieczulenie ogólne.

Ostry eksperyment ma swoje zalety i wady. Do zalet należy możliwość symulowania różnych sytuacji i uzyskiwania wyników w stosunkowo krótkim czasie. Wady obejmują fakt, że w ostrym eksperymencie wyklucza się wpływ centralnego układu nerwowego na organizm podczas stosowania znieczulenia ogólnego i zakłócana jest integralność reakcji organizmu na różne wpływy. Ponadto zwierzęta często muszą zostać poddane eutanazji po ostrym eksperymencie.

Dlatego później opracowano metody chroniczny eksperyment, w którym prowadzona jest długoterminowa obserwacja zwierząt po operacji i rekonwalescencji zwierzęcia.

Akademik I.P. Pawłow opracował metodę nakładania przetok na narządy puste (żołądek, jelita, pęcherz). Zastosowanie techniki przetokowej umożliwiło poznanie mechanizmów funkcjonowania wielu narządów. W sterylnych warunkach u znieczulonego zwierzęcia przeprowadza się operację chirurgiczną w celu uzyskania dostępu do określonego narządu wewnętrznego, wszczepia się rurkę przetoki lub wydobywa się przewód gruczołu i przyszywa się go do skóry. Właściwy eksperyment rozpoczyna się po zagojeniu rany pooperacyjnej i powrocie zwierzęcia do zdrowia, gdy procesy fizjologiczne wracają do normy. Dzięki tej technice możliwe stało się długotrwałe badanie obrazu procesów fizjologicznych w warunkach naturalnych.

Metoda eksperymentalna, podobnie jak metoda obserwacyjna, polega na zastosowaniu prostego i złożonego nowoczesnego sprzętu, instrumentów wchodzących w skład systemów zaprojektowanych do oddziaływania na obiekt i rejestrowania różnych przejawów aktywności życiowej.

Wynalezienie kymografu i opracowanie metody graficznego zapisu ciśnienia krwi przez niemieckiego naukowca K. Ludwiga w 1847 r. otworzyło nowy etap w rozwoju fizjologii. Kymograf umożliwił obiektywną rejestrację badanego procesu.

Później opracowano metody rejestracji skurczów serca i mięśni (T. Engelman) oraz metodę rejestracji zmian napięcia naczyniowego (pletyzmografia).

Cel rejestracja graficzna zjawiska bioelektryczne stały się możliwe dzięki galwanometrowi strunowemu wynalezionemu przez holenderskiego fizjologa Einthovena. Jako pierwszy zarejestrował elektrokardiogram na kliszy fotograficznej. Graficzny zapis potencjałów bioelektrycznych stał się podstawą rozwoju elektrofizjologii. Obecnie elektroencefalografia znajduje szerokie zastosowanie w praktyce i badaniach naukowych.

Ważnym etapem rozwoju elektrofizjologii było wynalezienie mikroelektrod. Za pomocą mikromanipulatorów można je wprowadzić bezpośrednio do komórki i zarejestrować potencjały bioelektryczne. Technologia mikroelektrod umożliwiła rozszyfrowanie mechanizmów powstawania biopotencjałów w błonach komórkowych.

Niemiecki fizjolog Dubois-Reymond jest twórcą metody elektrycznej stymulacji narządów i tkanek za pomocą cewki indukcyjnej do dozowanej stymulacji elektrycznej żywych tkanek. Obecnie wykorzystuje się do tego stymulatory elektroniczne, dzięki którym możliwe jest odbieranie impulsów elektrycznych o dowolnej częstotliwości i sile. Stymulacja elektryczna stała się ważną metodą badania funkcji narządów i tkanek.

Do metod eksperymentalnych zalicza się wiele metod fizjologicznych.

Usuwanie(wytępienie) narządu, na przykład określonego gruczołu dokrewnego, pozwala określić jego wpływ na różne narządy i układy zwierzęcia. Usunięcie różnych obszarów kory mózgowej pozwoliło naukowcom określić ich wpływ na organizm.

Współczesny postęp w fizjologii nastąpił dzięki zastosowaniu technologii radioelektronicznej.

Implantacja elektrod do różnych części mózgu, pomogło ustalić aktywność różnych ośrodków nerwowych.

Wstęp izotopy radioaktywne do organizmu pozwala naukowcom badać metabolizm różnych substancji w narządach i tkankach.

Metoda tomograficzna zastosowanie jądrowego rezonansu magnetycznego jest bardzo ważne dla wyjaśnienia mechanizmów procesów fizjologicznych na poziomie molekularnym.

Biochemiczne I biofizyczne Metody pomagają w dokładnej identyfikacji różnych metabolitów w narządach i tkankach zwierząt w stanach normalnych i patologicznych.

Znajomość ilościowych cech różnych procesów fizjologicznych i zależności między nimi umożliwiła tworzenie ich modele matematyczne. Za pomocą tych modeli odtwarzane są na komputerze procesy fizjologiczne i badane są różne opcje reakcji.

Podstawowe metody badań fizjologicznych

Fizjologia jest nauką eksperymentalną, tj. wszystkie jej założenia teoretyczne opierają się na wynikach eksperymentów i obserwacji.

Obserwacja

Obserwacja Stosowano już od pierwszych kroków rozwoju nauk fizjologicznych. Prowadząc obserwację, badacze przedstawiają opisowy opis wyników. W tym przypadku obiekt obserwacji zwykle znajduje się w warunkach naturalnych, bez szczególnego wpływu badacza na niego. Wadą prostej obserwacji jest niemożność lub duża trudność uzyskania wskaźników ilościowych i dostrzeżenia szybkich procesów. I tak na początku XVII w. V. Harvey, obserwując pracę serca małych zwierząt, napisał: „Prędkość ruchu serca nie pozwala nam rozróżnić, w jaki sposób następuje skurcz i rozkurcz, dlatego nie można stwierdzić, w którym momencie i w której części ekspansja i następuje skurcz.”

Doświadczenie

Większe możliwości niż zwykła obserwacja w badaniu procesów fizjologicznych zapewni inscenizacja eksperymenty. Przeprowadzając eksperyment fizjologiczny, badacz będzie sztucznie stwarzał warunki do identyfikacji istoty i wzorców przebiegu procesów fizjologicznych. Dozowane efekty fizykochemiczne można zastosować do żywego obiektu, wprowadzić różne substancje do krwi lub narządów i zarejestrować reakcję na skutki.

Eksperymenty w fizjologii dzielą się na ostre i przewlekłe. Wpływ na zwierzęta doświadczalne w ostre przeżycia mogą być niezgodne z ratowaniem życia zwierząt, np. skutkiem dużych dawek promieniowania, substancji toksycznych, utratą krwi, sztucznym zatrzymaniem krążenia, zatrzymaniem przepływu krwi. Poszczególne narządy można pobierać od zwierząt w celu zbadania ich funkcji fizjologicznych lub w celu umożliwienia przeszczepienia innym zwierzętom. Aby zachować żywotność, usunięte (izolowane) narządy umieszcza się w schłodzonych roztworach soli o podobnym składzie lub co najmniej zawartości najważniejszych składników mineralnych w osoczu krwi. Takie rozwiązania nazywane są fizjologicznymi. Do najprostszych roztworów fizjologicznych należy izotopowy 0,9% roztwór NaCl.

Przeprowadzanie eksperymentów na izolowanych narządach było szczególnie popularne w okresie XV – początków XX w., kiedy gromadziła się wiedza na temat funkcji narządów i ich poszczególnych struktur. Do przeprowadzenia eksperymentu fizjologicznego najwygodniej jest użyć wyizolowanych narządów zwierząt zimnokrwistych, które przez długi czas zachowują swoje funkcje. Zatem wyizolowane serce żaby, przemyte roztworem soli Ringera, może kurczyć się w temperaturze pokojowej przez wiele godzin i reagować na różne wpływy, zmieniając charakter skurczu. Ze względu na łatwość przygotowania i wagę uzyskanych informacji, takie izolowane narządy znajdują zastosowanie nie tylko w fizjologii, ale także w farmakologii, toksykologii i innych dziedzinach nauk medycznych. Przykładowo preparat wyizolowanego serca żaby (według metody Strauba) służy jako wystandaryzowany obiekt do badania aktywności biologicznej w masowej produkcji niektórych leków i opracowywaniu nowych leków.

Możliwości ostrego doświadczenia są jednak ograniczone nie tylko ze względu na kwestie etyczne związane z narażaniem zwierząt na ból i śmierć w trakcie eksperymentu, ale także dlatego, że badania często prowadzone są z naruszeniem systemowych mechanizmów regulujących przepływ funkcji fizjologicznych lub w warunkach sztucznych – na zewnątrz całego organizmu.

Chroniczne doświadczenie brakuje mu szeregu wymienionych wad. W eksperymencie przewlekłym badanie przeprowadza się na praktycznie zdrowym zwierzęciu w warunkach minimalnego na nie wpływu i przy zachowaniu jego życia. Przed badaniem można wykonać na zwierzęciu operacje przygotowujące je do doświadczenia (wszczepia się elektrody, tworzy się przetoki umożliwiające dostęp do jam i przewodów narządów). Eksperymenty na takich zwierzętach rozpoczynają się po zagojeniu powierzchni rany i przywróceniu upośledzonych funkcji.

Ważnym wydarzeniem w rozwoju metod badań fizjologii było wprowadzenie graficznej rejestracji obserwowanych zjawisk. Niemiecki naukowiec K. Ludwig wynalazł kymograf i po raz pierwszy w ostrym eksperymencie zarejestrował wahania (fale) ciśnienia tętniczego krwi. Następnie opracowano metody rejestracji procesów fizjologicznych za pomocą przekładni mechanicznych (dźwignie Engelmanna), przekładni powietrznych (kapsuła Mareya), metody rejestracji ukrwienia narządów i ich objętości (pletyzmograf Mosso). Krzywe uzyskane z takich rejestracji są zwykle nazywane kimogramy.

Fizjolodzy wynaleźli metody pobierania śliny (kapsułki Lashley-Krasnogorsky), które umożliwiły badanie jej składu, dynamiki powstawania i wydzielania, a następnie jej roli w utrzymaniu zdrowia tkanek jamy ustnej i rozwoju chorób. Opracowane metody pomiaru siły nacisku zębów i jej rozkładu w poszczególnych obszarach powierzchni zębów pozwoliły ilościowo określić siłę mięśni żucia, charakter dopasowania powierzchni żującej zębów górnych i dolne szczęki.

Szersze możliwości badania funkcji fizjologicznych organizmu człowieka i zwierzęcia pojawiły się po odkryciu przez włoskiego fizjologa L. Galvaniego prądów elektrycznych w żywych tkankach.

Rejestracja potencjałów elektrycznych komórek nerwowych, ich procesów, poszczególnych struktur czy całego mózgu pozwoliła fizjologom zrozumieć niektóre mechanizmy funkcjonowania układu nerwowego człowieka zdrowego i jego zaburzeń w chorobach neurologicznych. Metody te pozostają jednymi z najpowszechniejszych w badaniu funkcji układu nerwowego w nowoczesnych laboratoriach i klinikach fizjologicznych.

Rejestracja potencjałów elektrycznych mięśnia sercowego (elektrokardiografia) pozwoliła fizjologom i klinicystom nie tylko zrozumieć i dogłębnie zbadać zjawiska elektryczne zachodzące w sercu, ale także zastosować je w praktyce do oceny pracy serca, wczesnego wykrywania jego zaburzeń w sercu. chorób i monitorowanie skuteczności leczenia.

Rejestracja potencjałów elektrycznych mięśni szkieletowych (elektromiografia) umożliwiła fizjologom zbadanie wielu aspektów mechanizmów wzbudzenia i skurczu mięśni. W szczególności elektromiografia mięśni żucia pomaga lekarzom dentystom w obiektywnej ocenie stanu ich funkcji u zdrowego człowieka oraz w szeregu chorób nerwowo-mięśniowych.

Poddawanie zewnętrznych wpływów elektrycznych lub elektromagnetycznych (bodźców) o umiarkowanej sile i czasie trwania na tkankę nerwową i mięśniową nie powoduje uszkodzeń badanych struktur. Dzięki temu można je z powodzeniem stosować nie tylko do oceny reakcji fizjologicznych na bodźce, ale także do leczenia (stymulacja elektryczna mięśni i nerwów, przezczaszkowa stymulacja magnetyczna mózgu).

Bazuje na osiągnięciach fizyki, chemii, mikroelektroniki, cybernetyki końca XX wieku. stworzono warunki do jakościowego doskonalenia metod badań fizjologicznych i medycznych. Wśród tych nowoczesnych metod, które pozwoliły jeszcze głębiej wniknąć w istotę procesów fizjologicznych żywego organizmu, ocenić stan jego funkcji i zidentyfikować ich zmiany we wczesnych stadiach chorób, wyróżniają się wizualizacyjne metody badawcze. Obejmuje to badanie ultradźwiękowe serca i innych narządów, rentgenowską tomografię komputerową, wizualizację rozmieszczenia krótkotrwałych izotopów w tkankach, rezonans magnetyczny, emisję pozytonów i inne rodzaje tomografii.

Dla pomyślnego zastosowania metod fizjologicznych w medycynie sformułowano międzynarodowe wymagania, jakie należało spełnić przy opracowywaniu i wdrażaniu fizjologicznych metod badawczych. Wśród tych wymagań najważniejsze to:

  • bezpieczeństwo badania, brak urazów i uszkodzeń badanego obiektu;
  • wysoka czułość, szybkość czujników i urządzeń rejestrujących, możliwość synchronicznej rejestracji kilku wskaźników funkcji fizjologicznych;
  • możliwość długoterminowej rejestracji badanych wskaźników. Umożliwia to identyfikację cykliczności procesów fizjologicznych, określenie parametrów rytmów dobowych (dobowych) i identyfikację obecności napadowych (epizodycznych) zaburzeń procesów;
  • zgodność z międzynarodowymi standardami;
  • niewielkie wymiary i waga urządzeń umożliwiają prowadzenie badań nie tylko w szpitalu, ale także w domu, podczas pracy lub uprawiania sportu;
  • wykorzystanie techniki komputerowej i osiągnięć cybernetyki do rejestracji i analizy uzyskanych danych, a także do modelowania procesów fizjologicznych. Korzystając z technologii komputerowej, czas poświęcany na rejestrację danych i przetwarzanie matematyczne ulega znacznemu skróceniu, a z odbieranych sygnałów staje się możliwe wydobycie większej ilości informacji.

Jednak pomimo szeregu zalet nowoczesnych metod badań fizjologicznych, poprawność wyznaczania wskaźników funkcji fizjologicznych w dużej mierze zależy od jakości wykształcenia personelu medycznego, znajomości istoty procesów fizjologicznych, cech czujników i zasad działania stosowanych urządzeń, umiejętności pracy z pacjentem, udzielania mu poleceń, monitorowania postępu ich realizacji i korygowania zachowań pacjenta.

Wyniki jednorazowych pomiarów lub obserwacji dynamicznych przeprowadzonych przez różnych lekarzy na tym samym pacjencie nie zawsze są zbieżne. Pozostaje zatem problem zwiększenia wiarygodności procedur diagnostycznych i jakości badań.

Jakość badania charakteryzuje się dokładnością, poprawnością, zbieżnością i powtarzalnością pomiarów.

Określona w trakcie badania charakterystyka ilościowa wskaźnika fizjologicznego zależy zarówno od rzeczywistej wartości parametru tego wskaźnika, jak i od szeregu błędów wprowadzanych przez urządzenie i personel medyczny. Błędy te nazywane są zmienność analityczna. Zazwyczaj wymagane jest, aby zmienność analityczna nie przekraczała 10% wartości mierzonej. Ponieważ prawdziwa wartość wskaźnika dla tej samej osoby może się zmieniać ze względu na rytmy biologiczne, warunki pogodowe i inne czynniki, stosuje się termin w ramach poszczególnych odmian. Nazywa się różnicę tego samego wskaźnika między różnymi ludźmi różnice międzyosobnicze. Nazywa się ogółem wszystkich błędów i wahań parametru całkowita zmienność.

Test funkcjonalny

Ważną rolę w uzyskaniu informacji o stanie i stopniu upośledzenia funkcji fizjologicznych odgrywają tzw. testy funkcjonalne. Zamiast terminu „test funkcjonalny” często używa się słowa „test”. Wykonywanie testów funkcjonalnych – testowanie. Jednak w praktyce klinicznej termin „test” używany jest częściej i w nieco szerszym znaczeniu niż „test funkcjonalny”.

Test funkcjonalny obejmuje badanie wskaźników fizjologicznych w dynamice, przed i po wykonaniu pewnych wpływów na ciało lub dobrowolnych działaniach podmiotu. Najczęściej stosowane są testy funkcjonalne z dozowaną aktywnością fizyczną. Wykonuje się także badania wejściowe, które ujawniają zmiany pozycji ciała w przestrzeni, wysiłek, zmiany składu gazowego wdychanego powietrza, podanie leków, rozgrzewkę, ochłodzenie, wypicie określonej dawki roztworu alkalicznego i wiele innych wskaźników.

Do najważniejszych wymagań stawianych testom funkcjonalnym zalicza się niezawodność i ważność.

Niezawodność - możliwość wykonania badania z zadowalającą dokładnością przez półkwalifikowanego specjalistę. Wysoka niezawodność jest nieodłącznym elementem dość prostych testów, na których działanie środowisko ma niewielki wpływ. Najbardziej wiarygodne testy odzwierciedlające stan lub wielkość rezerw funkcji fizjologicznych rozpoznają odniesienie, norma Lub referencyjny.

Pojęcie ważność odzwierciedla przydatność testu lub metody do zamierzonego celu. W przypadku wprowadzenia nowego testu jego ważność ocenia się poprzez porównanie wyników uzyskanych przy użyciu tego testu z wynikami uznanych wcześniej badań referencyjnych. Jeżeli nowo wprowadzony test pozwala na znalezienie w większej liczbie przypadków poprawnych odpowiedzi na pytania zadawane podczas badania, to test ten ma wysoką trafność.

Zastosowanie testów funkcjonalnych radykalnie zwiększa możliwości diagnostyczne tylko wtedy, gdy testy te zostaną wykonane prawidłowo. Ich odpowiedni dobór, wdrożenie i interpretacja wymagają od pracowników medycznych szerokiej wiedzy teoretycznej i wystarczającego doświadczenia w wykonywaniu pracy praktycznej.

Miejska placówka oświatowa

gimnazjum nr 37

Metody badań genetycznych człowieka

Smoleńsk 2010

Wstęp

1.Genetyka jako nauka

1.1 Główne etapy rozwoju genetyki

1.2 Główne zadania genetyki

1.3 Główne gałęzie genetyki

1.4 Wpływ genetyki na inne dziedziny biologii

2.Genetyka człowieka (antropogenetyka)

3.Metody badania dziedziczności

3.1 Metoda genealogiczna

3.2 Metoda bliźniacza

3.3 Metody cytogenetyczne (kariotypowe).

3.4 Metody biochemiczne

3.5 Metody populacyjne

Wniosek

Literatura

Aplikacja

Wstęp

Jeśli wiek XIX słusznie wszedł do historii cywilizacji światowej jako wiek fizyki, to szybko kończący się wiek XX, w którym mieliśmy szczęście żyć, najprawdopodobniej będzie wiekiem biologii, a może nawet stulecie genetyki.

Rzeczywiście, w niecałe 100 lat po wtórnym odkryciu praw G. Mendla genetyka przeszła triumfalną ścieżkę od naturalnego, filozoficznego rozumienia praw dziedziczności i zmienności, poprzez eksperymentalne gromadzenie faktów z genetyki formalnej do molekularno-biologicznego zrozumienia istota genu, jego struktura i funkcja. Od teoretycznych konstrukcji genu jako abstrakcyjnej jednostki dziedziczności, poprzez zrozumienie jego materialnej natury jako fragmentu cząsteczki DNA kodującego strukturę aminokwasową białka, po klonowanie poszczególnych genów, tworzenie szczegółowych map genetycznych ludzi i zwierząt, identyfikację genów, których mutacje są związane z chorobami dziedzicznymi, rozwijając metody biotechnologii i inżynierii genetycznej, które pozwalają na specyficzne otrzymanie organizmów o danych cechach dziedzicznych, a także przeprowadzenie ukierunkowanej korekcji zmutowanych genów człowieka, tj. Terapia genowa chorób dziedzicznych. Genetyka molekularna znacząco pogłębiła nasze zrozumienie istoty życia, ewolucji przyrody żywej oraz strukturalnych i funkcjonalnych mechanizmów regulacji rozwoju jednostki. Dzięki jego sukcesom rozpoczęło się rozwiązywanie globalnych problemów ludzkości związanych z ochroną jej puli genowej.

Środkowa i druga połowa XX wieku charakteryzowała się znaczącym spadkiem częstości występowania, a nawet całkowitą eliminacją szeregu chorób zakaźnych, spadkiem umieralności noworodków i wydłużeniem średniej długości życia. W rozwiniętych krajach świata uwaga służby zdrowia przesunęła się na walkę z przewlekłymi patologiami człowieka, chorobami układu sercowo-naczyniowego i nowotworami.

Cele i założenia mojego eseju:

· Rozważ główne etapy rozwoju, zadania i cele genetyki;

· Podaj precyzyjną definicję terminu „genetyka człowieka” i rozważ istotę tego typu genetyki;

· Rozważ metody badania dziedziczności człowieka.

1. Genetyka jako nauka

1 Główne etapy rozwoju genetyki

Początków genetyki, jak każdej nauki, należy szukać w praktyce. Genetyka powstała w związku z hodowlą zwierząt domowych i uprawą roślin, a także rozwojem medycyny. Odkąd człowiek zaczął korzystać z krzyżowania zwierząt i roślin, stanął przed faktem, że właściwości i cechy potomstwa zależą od właściwości osobników rodzicielskich wybranych do krzyżowania. Wybierając i krzyżując najlepszych potomków, człowiek z pokolenia na pokolenie tworzył powiązane grupy - linie, a następnie rasy i odmiany o charakterystycznych dla nich właściwościach dziedzicznych.

Choć te obserwacje i porównania nie mogły jeszcze stać się podstawą do kształtowania się nauki, szybki rozwój hodowli i hodowli zwierząt oraz uprawy roślin i nasiennictwa w drugiej połowie XIX wieku spowodował wzmożone zainteresowanie analizami. zjawiska dziedziczności.

Do rozwoju nauki o dziedziczności i zmienności szczególnie mocno przyczyniła się doktryna Karola Darwina o pochodzeniu gatunków, która wprowadziła do biologii historyczną metodę badania ewolucji organizmów. Sam Darwin włożył wiele wysiłku w badanie dziedziczności i zmienności. Zebrał ogromną ilość faktów i na ich podstawie wyciągnął szereg słusznych wniosków, jednak nie udało mu się ustalić praw dziedziczności.

Jego współcześni, tzw. hybrydyzatorzy, którzy przekraczali różne formy i szukali stopnia podobieństwa i różnicy między rodzicami a potomkami, również nie byli w stanie ustalić ogólnych wzorców dziedziczenia.

Kolejnym warunkiem, który przyczynił się do ustanowienia genetyki jako nauki, był postęp w badaniu struktury i zachowania komórek somatycznych i rozrodczych. Już w latach 70. ubiegłego wieku wielu badaczy cytologii (Czistyakow w 1972 r., Strasburger w 1875 r.) odkryło pośredni podział komórek somatycznych, zwany kariokinezą (Schleicher w 1878 r.) lub mitozą (Flemming w 1882 r.). W 1888 roku, za sugestią Waldeiry, stałe elementy jądra komórkowego nazwano „chromosomami”. W tych samych latach Flemming podzielił cały cykl podziału komórki na cztery główne fazy: profazę, metafazę, anafazę i telofazę.

Równolegle z badaniami mitozy komórek somatycznych prowadzono badania nad rozwojem komórek rozrodczych i mechanizmem zapłodnienia u zwierząt i roślin. W 1876 r. O. Hertwig po raz pierwszy stwierdził u szkarłupni fuzję jądra plemnika z jądrem jaja. N.N. Gorozhankin w 1880 r. i E. Strasburger w 1884 r. ustalili to samo dla roślin: pierwszy - dla nagonasiennych, drugi - dla okrytozalążkowych.

W tym samym okresie Van Beneden (1883) i inni ujawnili kardynalny fakt, że podczas rozwoju komórki rozrodcze, w przeciwieństwie do komórek somatycznych, ulegają redukcji liczby chromosomów dokładnie o połowę, a podczas zapłodnienia - fuzji żeńskiej i męskiej jądra - przywracana jest normalna liczba chromosomów, stała dla każdego typu. Wykazano zatem, że każdy gatunek charakteryzuje się określoną liczbą chromosomów.

Powyższe uwarunkowania przyczyniły się zatem do wyłonienia się genetyki jako odrębnej dyscypliny biologicznej – dyscypliny posiadającej własny przedmiot i metody badawcze.

Za oficjalne narodziny genetyki uważa się wiosnę 1900 roku, kiedy trzech botaników niezależnie od siebie w trzech różnych krajach i w różnych miejscach odkryło niektóre z najważniejszych wzorców dziedziczenia cech u potomstwa hybryd. G. de Vries (Holandia) na podstawie pracy z wiesiołkiem dwuletnim, makiem, daturą i innymi roślinami podał „prawo podziału hybryd”; K. Correns (Niemcy) ustalił wzorce segregacji kukurydzy i opublikował artykuł „Prawo Gregora Mendla dotyczące zachowania potomstwa u mieszańców rasowych”; w tym samym roku K. Csermak (Austria) opublikował artykuł (O sztucznym przejściu w Pisum Sativum).

Nauka nie zna prawie żadnych nieoczekiwanych odkryć. Najbardziej błyskotliwe odkrycia tworzące etapy w jego rozwoju prawie zawsze mają swoich poprzedników. Stało się to wraz z odkryciem praw dziedziczności. Okazało się, że trzej botanicy, którzy odkryli wzór segregacji u potomstwa mieszańców wewnątrzgatunkowych, jedynie „odkryli na nowo” wzorce dziedziczenia odkryte w 1865 roku przez Gregora Mendla i przedstawione przez niego w artykule „Eksperymenty nad mieszańcami roślinnymi”, opublikowanym w „postępowaniach” Towarzystwa Przyrodników w Brünn (Czechosłowacja).

Wykorzystując rośliny grochu, G. Mendel opracował metody analizy genetycznej dziedziczenia poszczególnych cech organizmu i ustalił dwa fundamentalnie ważne zjawiska:

Charakterystyka zależy od indywidualnych czynników dziedzicznych przenoszonych przez komórki rozrodcze;

Pewne cechy organizmów nie zanikają podczas krzyżowania, ale są zachowywane u potomstwa w tej samej formie, w jakiej były u organizmów rodzicielskich.

Dla teorii ewolucji zasady te miały kardynalne znaczenie. Ujawnili jedno z najważniejszych źródeł zmienności, a mianowicie mechanizm utrzymywania zgodności cech gatunku przez wiele pokoleń. Gdyby cechy adaptacyjne organizmów, które powstały pod kontrolą selekcji, zostały wchłonięte i zniknęły podczas krzyżowania, wówczas rozwój gatunku byłby niemożliwy.

Cały dalszy rozwój genetyki wiązał się z badaniem i rozszerzaniem tych zasad oraz ich zastosowaniem w teorii ewolucji i selekcji.

Z ustalonych podstawowych zasad Mendla logicznie wynika szereg problemów, które krok po kroku są rozwiązywane w miarę rozwoju genetyki. W 1901 roku de Vries sformułował teorię mutacji, która głosi, że dziedziczne właściwości i cechy organizmów zmieniają się gwałtownie – mutacyjnie.

W 1903 r. Duński fizjolog roślin V. Johannsen opublikował pracę „O dziedziczeniu w populacjach i czystych liniach”, w której eksperymentalnie ustalono, że na zewnątrz podobne rośliny należące do tej samej odmiany są dziedzicznie różne - stanowią populację. Populacja składa się z dziedzicznie różnych osobników lub powiązanych grup - linii. W tym samym badaniu najwyraźniej ustalono, że istnieją dwa rodzaje zmienności w organizmach: dziedziczna, określona przez geny i niedziedziczna, określona przez losową kombinację czynników wpływających na przejaw cech.

Na kolejnym etapie rozwoju genetyki udowodniono, że formy dziedziczne są powiązane z chromosomami. Pierwszym faktem ujawniającym rolę chromosomów w dziedziczności było udowodnienie roli chromosomów w określaniu płci u zwierząt i odkrycie mechanizmu segregacji płciowej 1:1.

Od 1911 roku T. Morgan i jego współpracownicy z Uniwersytetu Columbia w USA zaczęli publikować serię prac, w których sformułował chromosomalną teorię dziedziczności. Eksperymentalne wykazanie, że głównymi nośnikami genów są chromosomy i że geny są rozmieszczone liniowo na chromosomach.

W 1922 r. N.I. Wawiłow formułuje prawo szeregów homologicznych w zmienności dziedzicznej, zgodnie z którym gatunki roślin i zwierząt spokrewnione pochodzeniem mają podobne szeregi zmienności dziedzicznej.

Stosując to prawo, N.I. Wawiłow założył centra pochodzenia roślin uprawnych, w których koncentruje się największa różnorodność form dziedzicznych.

W 1925 roku w naszym kraju G.A. Nadson i G.S. Filippova na grzybach, a w 1927 roku G. Möller w USA na muszce owocowej Drosophila uzyskał dowody na wpływ promieni rentgenowskich na występowanie zmian dziedzicznych. Jednocześnie wykazano, że tempo mutacji wzrasta ponad 100-krotnie. Badania te wykazały zmienność genów pod wpływem czynników środowiskowych. Udowodnienie wpływu promieniowania jonizującego na występowanie mutacji doprowadziło do powstania nowej gałęzi genetyki – genetyki radiacyjnej, której znaczenie wzrosło jeszcze bardziej wraz z odkryciem energii atomowej.

W 1934 r. T. Paynter, wykorzystując gigantyczne chromosomy gruczołów ślinowych muchówek, udowodnił, że nieciągłość struktury morfologicznej chromosomów, wyrażona w postaci różnych krążków, odpowiada lokalizacji genów w chromosomach, ustalonej wcześniej na drodze czysto genetycznej metody. Odkrycie to zapoczątkowało badania struktury i funkcjonowania genu w komórce.

W okresie od lat 40. XX wieku do chwili obecnej dokonano szeregu odkryć (głównie na temat mikroorganizmów) zupełnie nowych zjawisk genetycznych, ujawniających możliwości analizy struktury genów na poziomie molekularnym. W ostatnich latach, wraz z wprowadzeniem do genetyki nowych metod badawczych, zapożyczonych z mikrobiologii, znaleźliśmy rozwiązanie tego, w jaki sposób geny kontrolują sekwencję aminokwasów w cząsteczce białka.

Przede wszystkim należy powiedzieć, że obecnie w pełni udowodniono, że nosicielami dziedziczności są chromosomy, które składają się z wiązki cząsteczek DNA.

Przeprowadzono dość proste eksperymenty: z zabitych bakterii jednego szczepu o specjalnej charakterystyce zewnętrznej wyizolowano czysty DNA i przeniesiono go do żywych bakterii innego szczepu, po czym rozmnażające się bakterie tego ostatniego nabrały cech charakterystycznych pierwszego szczepu. Liczne podobne eksperymenty pokazują, że DNA jest nośnikiem dziedziczności.

W 1953 roku F. Crick (Anglia) i J. Watstone (USA) rozszyfrowali strukturę cząsteczki DNA. Odkryli, że każda cząsteczka DNA składa się z dwóch łańcuchów polideoksyrybonukleinowych, spiralnie skręconych wokół wspólnej osi.

Obecnie znaleziono podejścia do rozwiązania problemu organizacji kodu dziedzicznego i jego eksperymentalnego rozszyfrowania. Genetyka wraz z biochemią i biofizyką zbliżyła się do wyjaśnienia procesu syntezy białek w komórce i sztucznej syntezy cząsteczek białek. Rozpoczyna się zupełnie nowy etap w rozwoju nie tylko genetyki, ale całej biologii jako całości.

Rozwój genetyki do dziś stanowi stale poszerzające się tło badań nad odrębnością funkcjonalną, morfologiczną i biochemiczną chromosomów. Wiele już w tej dziedzinie zrobiono, wiele już zrobiono i każdego dnia najnowocześniejsza nauka zbliża się do celu – odkrycia natury genu. Do chwili obecnej ustalono szereg zjawisk charakteryzujących naturę genu. Po pierwsze, gen na chromosomie ma właściwość samoreprodukcji (autoreprodukcji); po drugie, jest zdolny do zmian mutacyjnych; po trzecie, jest związany z pewną strukturą chemiczną kwasu dezoksyrybonukleinowego – DNA; po czwarte, kontroluje syntezę aminokwasów i ich sekwencji w cząsteczkach białka. W związku z najnowszymi badaniami kształtuje się nowa koncepcja genu jako układu funkcjonalnego, a wpływ genu na określanie cech rozpatrywany jest w integralnym systemie genów – genotypie.

Pojawiające się perspektywy syntezy żywej materii cieszą się dużym zainteresowaniem genetyków, biochemików, fizyków i innych specjalistów.

1.2 Główne zadania genetyki

genetyka biologia dziedziczność genealogia

Badania genetyczne mają dwa rodzaje celów: zrozumienie wzorców dziedziczności i zmienności oraz znalezienie sposobów praktycznego wykorzystania tych wzorców. Obydwa są ze sobą ściśle powiązane: rozwiązanie problemów praktycznych opiera się na wnioskach uzyskanych z badania podstawowych problemów genetycznych, a jednocześnie dostarcza danych faktograficznych ważnych dla poszerzania i pogłębiania koncepcji teoretycznych.

Z pokolenia na pokolenie przekazywane są informacje (choć czasami w nieco zniekształconej formie) o wszystkich różnorodnych cechach morfologicznych, fizjologicznych i biochemicznych, które powinny być realizowane u potomków. Opierając się na tej cybernetycznej naturze procesów genetycznych, wygodnie jest sformułować cztery główne problemy teoretyczne badane przez genetykę:

Po pierwsze, istnieje problem przechowywania informacji genetycznej. Bada się, w jakich strukturach materialnych komórki zawarta jest informacja genetyczna i w jaki sposób jest ona tam kodowana.

Po drugie, istnieje problem przekazywania informacji genetycznej. Badane są mechanizmy i wzorce przekazywania informacji genetycznej z komórki do komórki oraz z pokolenia na pokolenie.

Po trzecie, problem implementacji informacji genetycznej. Bada się, w jaki sposób informacja genetyczna jest zawarta w określonych cechach rozwijającego się organizmu, wchodząc w interakcję z wpływami środowiska, które w takim czy innym stopniu zmieniają te cechy, czasem znacząco.

Po czwarte, problem zmiany informacji genetycznej. Badane są rodzaje, przyczyny i mechanizmy tych zmian.

Osiągnięcia genetyki wykorzystuje się do wyselekcjonowania typów krzyżówek, które najlepiej wpływają na strukturę genotypową (segregację) potomków, do wybrania najskuteczniejszych metod selekcji, do regulowania rozwoju cech dziedzicznych, kontrolowania procesu mutacji, ukierunkowanych zmian w genomie potomstwa. organizm wykorzystujący inżynierię genetyczną i mutagenezę specyficzną dla miejsca. Wiedza o tym, jak różne metody selekcji wpływają na strukturę genotypową populacji pierwotnej (rasa, odmiana) pozwala na zastosowanie takich metod selekcji, które najszybciej zmienią tę strukturę w pożądanym kierunku. Zrozumienie sposobów realizacji informacji genetycznej w procesie ontogenezy oraz wpływu środowiska, jakie wywiera na te procesy, pozwala na dobór warunków, które przyczyniają się do najpełniejszego ujawnienia się cech cennych w danym organizmie i „wytłumienia” cech niepożądanych. Jest to ważne dla zwiększenia produktywności zwierząt domowych, roślin uprawnych i mikroorganizmów przemysłowych, a także dla medycyny, ponieważ pozwala zapobiegać objawom szeregu dziedzicznych chorób człowieka.

Badanie mutagenów fizycznych i chemicznych oraz mechanizmu ich działania umożliwia sztuczne uzyskanie wielu dziedzicznie zmienionych form, co przyczynia się do powstania ulepszonych szczepów pożytecznych mikroorganizmów i odmian roślin uprawnych. Znajomość praw procesu mutacji jest niezbędna do opracowania środków zabezpieczających genom człowieka i zwierząt przed uszkodzeniami powodowanymi przez mutageny fizyczne (głównie promieniowanie) i chemiczne.

O powodzeniu wszelkich badań genetycznych decyduje nie tylko znajomość ogólnych praw dziedziczności i zmienności, ale także znajomość konkretnej genetyki organizmów, z którymi prowadzona jest praca. Chociaż podstawowe prawa genetyki są uniwersalne, mają one również cechy charakterystyczne dla różnych organizmów ze względu na różnice, na przykład w biologii reprodukcji i strukturze aparatu genetycznego. Ponadto ze względów praktycznych konieczna jest wiedza, które geny biorą udział w określaniu cech danego organizmu. Dlatego badanie genetyki specyficznych cech organizmu jest istotnym elementem badań stosowanych.

3 Główne gałęzie genetyki

Współczesna genetyka jest reprezentowana przez wiele działów o zainteresowaniach zarówno teoretycznych, jak i praktycznych. Wśród działów genetyki ogólnej, czyli „klasycznej”, najważniejsze to: analiza genetyczna, podstawy chromosomalnej teorii dziedziczności, cytogenetyka, dziedziczność cytoplazmatyczna (pozajądrowa), mutacje, modyfikacje. Genetyka molekularna, genetyka ontogenezy (fenogenetyka), genetyka populacyjna (struktura genetyczna populacji, rola czynników genetycznych w mikroewolucji), genetyka ewolucyjna (rola czynników genetycznych w specjacji i makroewolucji), inżynieria genetyczna, genetyka komórek somatycznych, immunogenetyka , genetyka prywatna - genetyka intensywnie rozwijających się bakterii, genetyka wirusów, genetyka zwierząt, genetyka roślin, genetyka człowieka, genetyka medyczna i wiele innych. itp. Najnowsza gałąź genetyki - genomika - bada procesy powstawania i ewolucji genomów.

4 Wpływ genetyki na inne dziedziny biologii

Genetyka zajmuje centralne miejsce we współczesnej biologii, badając zjawiska dziedziczności i zmienności, które w dużej mierze determinują wszystkie główne właściwości istot żywych. Uniwersalność materiału genetycznego i kodu genetycznego leży u podstaw jedności wszystkich żywych istot, a różnorodność form życia jest wynikiem specyfiki jego realizacji podczas indywidualnego i historycznego rozwoju istot żywych. Osiągnięcia genetyki są ważnym elementem niemal wszystkich współczesnych dyscyplin biologicznych. Syntetyczna teoria ewolucji jest najbliższym połączeniem darwinizmu i genetyki. To samo można powiedzieć o współczesnej biochemii, której główne założenia dotyczące kontroli syntezy głównych składników żywej materii - białek i kwasów nukleinowych - opierają się na osiągnięciach genetyki molekularnej. Cytologia zajmuje się budową, reprodukcją i funkcjonowaniem chromosomów, plastydów i mitochondriów, czyli elementów, w których zapisana jest informacja genetyczna. W taksonomii zwierząt, roślin i mikroorganizmów coraz częściej wykorzystuje się porównanie genów kodujących enzymy i inne białka, a także bezpośrednie porównanie sekwencji nukleotydowych chromosomów w celu ustalenia stopnia pokrewieństwa taksonów i wyjaśnienia ich filogenezy. Za pomocą modeli genetycznych bada się różne procesy fizjologiczne roślin i zwierząt; w szczególności badając fizjologię mózgu i układu nerwowego, wykorzystują specjalne metody genetyczne, linie Drosophila i ssaki laboratoryjne. Współczesna immunologia w całości opiera się na danych genetycznych dotyczących mechanizmu syntezy przeciwciał. Osiągnięcia genetyki, w takim czy innym stopniu, często bardzo znaczące, stanowią integralną część wirusologii, mikrobiologii i embriologii. Można słusznie powiedzieć, że współczesna genetyka zajmuje centralne miejsce wśród dyscyplin biologicznych.

2. Genetyka człowieka (antropogenetyka)

1. Metody badania dziedziczności człowieka: genealogiczna, bliźniacza, cytogenetyczna, biochemiczna i populacyjna

Choroby genetyczne i choroby dziedziczne. Znaczenie konsultacji genetycznych i diagnostyki prenatalnej. Możliwości genetycznej korekcji chorób.

Genetyka człowieka to specjalna gałąź genetyki, która bada cechy dziedziczenia cech u ludzi, choroby dziedziczne (genetyka medyczna) i strukturę genetyczną populacji ludzkich. Genetyka człowieka jest teoretyczną podstawą współczesnej medycyny i współczesnej opieki zdrowotnej.

Obecnie jest stanowczo ustalone, że w świecie żywym prawa genetyki są uniwersalne i obowiązują również ludzi.

Ponieważ jednak człowiek jest nie tylko istotą biologiczną, ale także społeczną, genetyka człowieka różni się od genetyki większości organizmów wieloma cechami: - analiza hybrydologiczna (metoda krzyżowania) nie ma zastosowania do badania dziedziczenia człowieka; dlatego do analizy genetycznej stosuje się określone metody: genealogiczną (metoda analizy rodowodu), bliźniaczą, a także cytogenetyczną, biochemiczną, populacyjną i niektóre inne metody;

Człowieka charakteryzują cechy społeczne, których nie ma w innych organizmach, na przykład temperament, złożone systemy komunikacji oparte na mowie, a także zdolności matematyczne, wizualne, muzyczne i inne;

dzięki wsparciu społecznemu możliwe jest przetrwanie i istnienie ludzi z oczywistymi odchyleniami od normy (na wolności takie organizmy nie są zdolne do życia).

Genetyka człowieka bada charakterystykę dziedziczenia cech u ludzi, chorób dziedzicznych (genetyka medyczna) i strukturę genetyczną populacji ludzkich. Genetyka człowieka jest teoretyczną podstawą współczesnej medycyny i współczesnej opieki zdrowotnej. Znanych jest kilka tysięcy aktualnych chorób genetycznych, które są prawie w 100% zależne od genotypu osobnika. Do najstraszniejszych z nich zalicza się: kwasowe zwłóknienie trzustki, fenyloketonurię, galaktozemię, różne formy kretynizmu, hemoglobinopatie, a także zespoły Downa, Turnera i Klinefeltera. Ponadto istnieją choroby zależne zarówno od genotypu, jak i środowiska: choroba wieńcowa, cukrzyca, choroby reumatoidalne, wrzody żołądka i dwunastnicy, wiele chorób onkologicznych, schizofrenia i inne choroby psychiczne.

Zadania genetyki medycznej polegają na terminowej identyfikacji nosicieli tych chorób wśród rodziców, identyfikacji chorych dzieci i opracowaniu zaleceń dotyczących ich leczenia. Konsultacje genetyczne, lekarskie i diagnostyka prenatalna (czyli wykrywanie chorób we wczesnych stadiach rozwoju organizmu) odgrywają kluczową rolę w profilaktyce chorób uwarunkowanych genetycznie.

Istnieją specjalne sekcje stosowanej genetyki człowieka (genetyka środowiskowa, farmakogenetyka, toksykologia genetyczna), które badają genetyczne podstawy opieki zdrowotnej. Opracowując leki, badając reakcję organizmu na działanie niekorzystnych czynników, należy wziąć pod uwagę zarówno indywidualne cechy ludzi, jak i cechy populacji ludzkich.

Podajmy przykłady dziedziczenia niektórych cech morfofizjologicznych.

Cechy dominujące i recesywne u człowieka

(w przypadku niektórych cech wskazano geny je kontrolujące) (Tabela nr 1, patrz także)

Dominacja niepełna (wskazano geny kontrolujące cechę) (Tabela nr 2, patrz przykład)

Dziedziczenie koloru włosów (kontrolowane przez cztery geny, dziedziczone polimerowo) (Tabela nr 3, patrz także)

3. Metody badania dziedziczności człowieka

Rodowód to diagram przedstawiający powiązania pomiędzy członkami rodziny. Analizując rodowody, badają każdą normalną lub (częściej) patologiczną cechę w pokoleniach osób spokrewnionych.

3.1 Metody genealogiczne

Metody genealogiczne służą do określenia dziedzicznego lub niedziedzicznego charakteru cechy, dominacji lub recesywności, mapowania chromosomów, powiązania płciowego oraz do badania procesu mutacji. Z reguły metoda genealogiczna stanowi podstawę wniosków w medycznym poradnictwie genetycznym.

Przy sporządzaniu rodowodów stosuje się standardowe oznaczenia. Osoba (jednostka), od której rozpoczyna się badanie, nazywana jest probantem (jeśli rodowód jest ułożony w taki sposób, że od probanda przechodzi się do jego potomstwa, wówczas nazywa się to drzewem genealogicznym). Potomek małżeństwa nazywany jest rodzeństwem, rodzeństwo nazywa się rodzeństwem, kuzyni nazywani są kuzynami pierwszego stopnia itp. Potomkowie mający wspólną matkę (ale różnych ojców) nazywani są spokrewnionymi, a potomkowie mający wspólnego ojca (ale różnych matek) nazywani są półkrwi; jeśli w rodzinie są dzieci z różnych małżeństw i nie mają wspólnych przodków (na przykład dziecko z pierwszego małżeństwa matki i dziecko z pierwszego małżeństwa ojca), wówczas nazywa się je pasierbami.

Każdy członek rodowodu ma swój własny kod, składający się z cyfry rzymskiej i arabskiej, wskazujący odpowiednio numer pokolenia i numer indywidualny przy numerowaniu pokoleń kolejno od lewej do prawej. Rodowód musi zawierać legendę, czyli wyjaśnienie przyjętych oznaczeń. W blisko spokrewnionych małżeństwach istnieje duże prawdopodobieństwo wykrycia u małżonków tego samego niekorzystnego allelu lub aberracji chromosomowej.

Oto wartości K dla niektórych par krewnych z monogamią:

K [rodzice-potomstwo] = K [rodzeństwo] = 1/2;

K [dziadek-wnuk]=K [wujek-bratanek]=1/4;

K [kuzyni]= K [pradziadek-prawnuk]=1/8;

K [kuzyni drugiego stopnia]=1/32;

K [kuzyni czwartego stopnia]=1/128. Zazwyczaj takich odległych krewnych nie zalicza się do tej samej rodziny.

Na podstawie analizy genealogicznej wyciąga się wniosek na temat dziedzicznej warunkowości cechy. Na przykład szczegółowo prześledzono dziedziczenie hemofilii A wśród potomków angielskiej królowej Wiktorii. Analiza genealogiczna wykazała, że ​​hemofilia A jest chorobą recesywną sprzężoną z płcią.

2 Metoda bliźniacza

Bliźniaki to dwoje lub więcej dzieci poczętych i urodzonych przez tę samą matkę niemal jednocześnie. Terminu „bliźniaki” używa się w odniesieniu do ludzi i ssaków, które zwykle rodzą jedno dziecko (cielę). Istnieją bliźnięta jednojajowe i dwujajowe.

Identyczne (monozygotyczne, identyczne) bliźnięta pojawiają się na najwcześniejszych etapach fragmentacji zygoty, kiedy dwa lub cztery blastomery zachowują zdolność do rozwinięcia się w pełnoprawny organizm po rozdzieleniu. Ponieważ zygota dzieli się na drodze mitozy, genotypy bliźniąt jednojajowych są, przynajmniej początkowo, całkowicie identyczne. Identyczne bliźnięta są zawsze tej samej płci i w czasie rozwoju płodu dzielą to samo łożysko.

Bliźniaki braterskie (dizygotyczne, nieidentyczne) powstają inaczej - gdy zapłodnione zostaną dwa lub więcej jednocześnie dojrzałych jaj. Zatem mają wspólne około 50% swoich genów. Innymi słowy, pod względem budowy genetycznej są podobni do zwykłych braci i sióstr i mogą być tej samej lub przeciwnej płci.

Zatem o podobieństwie między bliźniętami jednojajowymi decydują zarówno te same genotypy, jak i te same warunki rozwoju wewnątrzmacicznego. Podobieństwo między bliźniakami dwujajowymi zależy jedynie od tych samych warunków rozwoju wewnątrzmacicznego.

Częstość urodzeń bliźniaczych w ujęciu względnym jest niewielka i wynosi około 1%, z czego 1/3 to bliźnięta jednojajowe. Jednak biorąc pod uwagę całkowitą populację Ziemi, na świecie żyje ponad 30 milionów bliźniąt dwujajowych i 15 milionów jednojajowych.

W przypadku badań bliźniąt bardzo ważne jest ustalenie wiarygodności zygotyczności. Zygotyczność najdokładniej ustala się poprzez wzajemne przeszczepianie małych obszarów skóry. U bliźniąt dwuzygotycznych przeszczepy zawsze są odrzucane, natomiast u bliźniąt jednojajowych przeszczepione kawałki skóry skutecznie się zakorzeniają. Przeszczepione nerki przeszczepione od jednego z bliźniąt jednojajowych do drugiego również funkcjonują skutecznie i przez długi czas.

Porównując bliźnięta jednojajowe i dwujajowe wychowywane w tym samym środowisku, można wyciągnąć wnioski na temat roli genów w rozwoju cech. Warunki rozwoju poporodowego mogą być inne dla każdego bliźniaka. Na przykład bliźnięta jednojajowe zostały rozdzielone kilka dni po urodzeniu i wychowane w różnych środowiskach. Porównanie ich po 20 latach pod kątem wielu cech zewnętrznych (wysokość, objętość głowy, liczba rowków w odciskach palców itp.) ujawniło jedynie niewielkie różnice. Jednocześnie środowisko wpływa na wiele normalnych i patologicznych objawów.

Metoda bliźniacza pozwala na wyciągnięcie świadomych wniosków na temat odziedziczalności cech: roli dziedziczności, czynników środowiskowych i losowych w określaniu niektórych cech człowieka,

Dziedziczność to udział czynników genetycznych w powstaniu cechy, wyrażony w ułamkach jednostki lub procentach.

Aby obliczyć odziedziczalność cech, porównuje się stopień podobieństwa lub różnicy w szeregu cech u bliźniąt różnych typów.

Spójrzmy na kilka przykładów ilustrujących podobieństwa (zgodność) i różnice (niezgodność) wielu cech (Tabela nr 4, patrz także)

Na uwagę zasługuje wysoki stopień podobieństwa bliźniąt jednojajowych w tak poważnych chorobach, jak schizofrenia, epilepsja i cukrzyca.

Oprócz cech morfologicznych, a także barwy głosu, chodu, mimiki, gestów itp. Badana jest struktura antygenowa krwinek, białka surowicy i zdolność smakowania niektórych substancji.

Szczególnie interesujące jest dziedziczenie cech istotnych społecznie: agresywności, altruizmu, zdolności twórczych, badawczych i organizacyjnych. Uważa się, że cechy istotne społecznie w około 80% zależą od genotypu.

3 Metody cytogenetyczne (kariotypowe).

Metody cytogenetyczne stosowane są przede wszystkim w badaniu kariotypów poszczególnych osobników. Kariotyp człowieka został dość dobrze zbadany, a zastosowanie barwienia różnicowego pozwala na dokładną identyfikację wszystkich chromosomów. Całkowita liczba chromosomów w zestawie haploidalnym wynosi 23. Spośród nich 22 chromosomy są takie same zarówno u mężczyzn, jak iu kobiet; nazywane są autosomami. W zestawie diploidalnym (2n=46) każdy autosom jest reprezentowany przez dwóch homologów. Dwudziesty trzeci chromosom jest chromosomem płci i może być reprezentowany przez chromosom X lub Y. Chromosomy płciowe u kobiet są reprezentowane przez dwa chromosomy X, a u mężczyzn przez jeden chromosom X i jeden chromosom Y.

Zmiany kariotypu są zwykle związane z rozwojem chorób genetycznych.

Dzięki hodowli komórek ludzkich in vitro możliwe jest szybkie uzyskanie wystarczająco dużego materiału do przygotowania leków. Do kariotypowania zwykle stosuje się krótkotrwałą hodowlę leukocytów krwi obwodowej.

Do opisu komórek interfazowych stosuje się także metody cytogenetyczne. Na przykład na podstawie obecności lub braku chromatyny płciowej (ciał Barra, które są inaktywowanymi chromosomami X), można nie tylko określić płeć osobników, ale także zidentyfikować niektóre choroby genetyczne związane ze zmianami liczby chromosomów X .

Mapowanie ludzkich chromosomów.

Metody biotechnologiczne są szeroko stosowane do mapowania ludzkich genów. W szczególności metody inżynierii komórkowej umożliwiają łączenie różnych typów komórek. Fuzję komórek należących do różnych gatunków biologicznych nazywa się hybrydyzacją somatyczną. Istotą hybrydyzacji somatycznej jest otrzymanie kultur syntetycznych poprzez połączenie protoplastów różnych gatunków organizmów. Do fuzji komórek stosuje się różne metody fizykochemiczne i biologiczne. Po fuzji protoplastów powstają wielojądrzaste komórki heterokariotyczne. Następnie, gdy jądra łączą się, powstają komórki synkariotyczne, zawierające w swoich jądrach zestawy chromosomów różnych organizmów. Kiedy takie komórki dzielą się in vitro, tworzą się hybrydowe hodowle komórkowe. Obecnie uzyskuje się i hoduje hybrydy komórek ludzkich × mysz”, „człowiek” × szczur” i wiele innych.

W komórkach hybrydowych uzyskanych z różnych szczepów różnych gatunków jeden z genomów rodzicielskich stopniowo traci chromosomy. Procesy te zachodzą intensywnie np. w hybrydach komórkowych pomiędzy myszami i ludźmi. Jeśli monitorujesz jakiś marker biochemiczny (na przykład określony ludzki enzym) i jednocześnie przeprowadzasz kontrolę cytogenetyczną, to ostatecznie możesz powiązać zniknięcie chromosomu jednocześnie z cechą biochemiczną. Oznacza to, że gen kodujący tę cechę jest zlokalizowany na tym chromosomie.

Dodatkowe informacje na temat lokalizacji genu można uzyskać analizując mutacje chromosomowe (delecje).

4 Metody biochemiczne

Całą różnorodność metod biochemicznych dzieli się na dwie grupy:

a) Metody oparte na identyfikacji określonych produktów biochemicznych powstałych w wyniku działania różnych alleli. Najłatwiejszym sposobem identyfikacji alleli jest zmiana aktywności enzymu lub zmiana jakiejś cechy biochemicznej.

b) Metody oparte na bezpośredniej detekcji zmienionych kwasów nukleinowych i białek z wykorzystaniem elektroforezy żelowej w połączeniu z innymi technikami (hybrydyzacja blot, autoradiografia).

Zastosowanie metod biochemicznych umożliwia identyfikację heterozygotycznych nosicieli chorób. Na przykład u heterozygotycznych nosicieli genu fenyloketonurii zmienia się poziom fenyloalaniny we krwi.

Metody mutagenezy genetycznej

Proces mutacji u człowieka, podobnie jak u wszystkich innych organizmów, prowadzi do powstania alleli i rearanżacji chromosomowych, które negatywnie wpływają na zdrowie.

Mutacje genowe. Około 1% noworodków zachoruje z powodu mutacji genów, z których część jest nowa. Tempo mutacji różnych genów w ludzkim genotypie nie jest takie samo. Znane są geny, które mutują z częstotliwością 10-4 na gametę na pokolenie. Jednakże większość pozostałych genów mutuje z częstotliwością setki razy niższą (10-6). Poniżej przykłady najczęstszych mutacji genów u człowieka (Tabela nr 5, patrz także)

Mutacje chromosomowe i genomowe w zdecydowanej większości występują w komórkach rozrodczych rodziców. Jeden na 150 noworodków jest nosicielem mutacji chromosomowej. Około 50% wczesnych aborcji jest spowodowanych mutacjami chromosomowymi. Wynika to z faktu, że jedna na 10 ludzkich gamet jest nosicielem mutacji strukturalnych. Wiek rodziców, zwłaszcza wiek matek, odgrywa ważną rolę w zwiększaniu częstości występowania mutacji chromosomowych i ewentualnie genów.

Poliploidia występuje bardzo rzadko u ludzi. Znane są przypadki narodzin triploidów - noworodki te umierają wcześnie. Wśród abortowanych płodów znaleziono tetraploidy.

Jednocześnie istnieją czynniki zmniejszające częstotliwość mutacji - antymutageny. Do antymutagenów zaliczają się niektóre witaminy przeciwutleniające (na przykład witamina E, nienasycone kwasy tłuszczowe), aminokwasy zawierające siarkę, a także różne substancje biologicznie czynne, które zwiększają aktywność systemów naprawczych.

5 Metody populacyjne

Do głównych cech populacji ludzkiej zalicza się: wspólne terytorium, na którym żyje dana grupa ludzi oraz możliwość swobodnego zawierania małżeństw. Czynnikami izolacji, czyli ograniczenia swobody wyboru małżonków, mogą być nie tylko bariery geograficzne, ale także religijne i społeczne.

W populacjach ludzkich występuje wysoki poziom polimorfizmu wielu genów: to znaczy ten sam gen jest reprezentowany przez różne allele, co prowadzi do istnienia kilku genotypów i odpowiadających im fenotypów. Zatem wszyscy członkowie populacji różnią się od siebie genetycznie: praktycznie niemożliwe jest znalezienie w populacji nawet dwóch identycznych genetycznie osób (z wyjątkiem bliźniąt jednojajowych).

W populacjach ludzkich działają różne formy doboru naturalnego. Selekcja zachodzi zarówno w stanie wewnątrzmacicznym, jak i w kolejnych okresach ontogenezy. Najbardziej wyraźna selekcja stabilizująca jest skierowana przeciwko niekorzystnym mutacjom (na przykład rearanżacjom chromosomowym). Klasycznym przykładem selekcji na korzyść heterozygot jest szerzenie się anemii sierpowatokrwinkowej.

Metody populacyjne pozwalają oszacować częstość występowania tych samych alleli w różnych populacjach. Ponadto metody populacyjne umożliwiają badanie procesu mutacji u człowieka. Pod względem natury radiowrażliwości populacja ludzka jest genetycznie niejednorodna. U niektórych osób z genetycznie uwarunkowanymi defektami naprawy DNA radiowrażliwość chromosomów jest zwiększona 5...10 razy w porównaniu do większości członków populacji.

Wniosek

Aby więc właściwie dostrzec dokonującą się na naszych oczach rewolucję w biologii i medycynie, móc skorzystać z jej kuszących owoców i uniknąć niebezpiecznych dla ludzkości pokus – o to właśnie zabiegają lekarze, biolodzy i przedstawiciele innych specjalności, a także po prostu wykształcona osoba jest dziś potrzebna.

Aby chronić pulę genową ludzkości, chroniąc ją w każdy możliwy sposób przed ryzykownymi ingerencjami, a jednocześnie wydobyć maksymalne korzyści z już uzyskanych bezcennych informacji w zakresie diagnostyki, zapobiegania i leczenia wielu tysięcy dziedzicznych dolegliwości - to jest zadanie, które należy dziś rozwiązać i z którym wkroczymy w nowy XXI wiek.

W swoim eseju przedstawiłem zadania, które musiałem rozważyć. Dowiedziałem się więcej o genetyce. Dowiedziałem się, czym jest genetyka. Zbadała główne etapy jej rozwoju, zadania i cele współczesnej genetyki. Przyjrzałem się także jednemu z rodzajów genetyki – genetyce człowieka. Podała precyzyjną definicję tego terminu i zbadała istotę tego typu genetyki. Również w moim streszczeniu przyjrzeliśmy się sposobom badania dziedziczności człowieka. Ich odmiany i istota każdej metody.

Literatura

·Encyklopedia. Człowiek. tom 18. część pierwsza. Wołodin V.A. - M.: Avolta+, 2002;

·Biologia. Wzory ogólne. Zakharov V.B., Mamontov S.G., Sivoglazov V.I. - M.: Shkola-Press, 1996;

·<#"justify">Aplikacja

Tabela nr 1 Cechy dominujące i recesywne u człowieka (w przypadku niektórych cech wskazano geny je kontrolujące)

Dominująca Recesywna Normalna pigmentacja skóry, oczu, włosów Albinizm Krótkowzroczność Normalne widzenie Normalne widzenie Ślepota nocna Widzenie kolorów Ślepota na barwy Zaćma Brak zaćmy Zez Brak zeza Grube usta Cienkie usta Polidaktylia (dodatkowe palce) Normalna liczba palców Brachidaktylia (krótkie palce) Normalna długość palców Piegi Brak sprężyn uszu Normalny słuch Congeni całkowita głuchota Karłowatość Normalny wzrost Normalne wchłanianie glukozy Cukrzyca Prawidłowa krzepliwość krwi Hemofilia Okrągły kształt twarzy (R -) Kwadratowy kształt twarzy (rr) Dołeczki na brodzie (A-) Brak dołków (aa) Dołeczki na policzkach (D-) Brak dołków (dd) Grube brwi (B-) Cienkie brwi (bb) Brwi nie połączone (N-) Brwi połączone (nn) Długie rzęsy ( L-)Krótkie rzęsy (ll)Okrągły nos (G-)Spiczasty nos (gg)Okrągłe nozdrza (Q-)Wąskie nozdrza (qq)

Tabela nr 2 Dominacja niepełna (wskazano geny kontrolujące cechę)

ZnakiOpcjeOdległość między oczami - TDużyŚredniMałyRozmiar oczu - EDużyŚredniMałyRozmiar ust - MDużyŚredniMałyRodzaj włosów - KręconeKręconeProste Kolor brwi - BBardzo ciemnyCiemnyJasnyRozmiar nosa - FDużyŚredniMały Tabela nr 3 Dziedziczenie koloru włosów (kontrolowane przez cztery geny, dziedziczone polimerowo)

Liczba dominujących alleli Kolor włosów8Czarny7Ciemny brąz6Ciemny kasztan5Kasztan4Brązowy3Jasnobrązowy2Blondynka1Bardzo jasny blond0Biały

Tabela nr 4

a) Stopień różnicy (niezgodności) w szeregu neutralnych cech u bliźniąt

Cechy kontrolowane przez małą liczbę genów Częstotliwość (prawdopodobieństwo) różnic, % Dziedziczność, % identyczny braterski Kolor oczu 0,57299 Kształt uszu 2,08098 Kolor włosów 3,07796 Linie brodawkowe 8,06087 średnia< 1 %≈ 55 %95 %Биохимические признаки0,0от 0 до 100100 %Цвет кожи0,055Форма волос0,021Форма бровей0,049Форма носа0,066Форма губ0,035

b) Stopień podobieństwa (zgodności) dla szeregu chorób u bliźniąt

Objawy kontrolowane przez dużą liczbę genów i zależne od nieogólnych czynników pojawienia się podobieństw, % dziedziczenia, % wilgotnego zacofania generowanego przez pojedyncze ado973795 Shizofrenia69106666 Cukrzyca Sacchar651857Padaczka673053 Średnia ≈ 65% przestępczości (?) 682856 %

Tabela nr 5

Rodzaje i nazwy mutacji Częstotliwość mutacji (na 1 milion gamet) Autosomalna dominująca Wielotorbielowatość nerek 65... 120 Neurofibromatoza 65... 120 Polipowatość mnoga jelita grubego 10... 50 Anomalia leukocytów Pelgera 9... 27 Niedoskonała osteogeneza 7... 13 Zespół Marfana 4... 6 Autosomalna recesywna małogłowie 2 7Ryia (niezwiązana z płcią) 11 Recesywna dystrofia mięśniowa Duchenne'a 43...105 Hemofilia A37...52 Hemofilia B2...3 Rybia łuska (powiązany z płcią) 24

Chronologia rozwoju astronomii od końca XIX wieku – przez cały XX wiek – i początek XXI wieku
W 1860 roku ukazała się książka „Chemical Analysis by Spectral Observations” Kirchhoffa i Bunsena, w której opisano metody analizy spektralnej. Nastąpił początek astrofizyki.
1862 Odkryto satelitę Syriusza, o którym Bessel mówił w swoich badaniach.
1872 Amerykanin G. Dreper wykonał pierwszą fotografię widma gwiazdy.
1873 J.C. Maxwell publikuje Traktat o elektryczności i magnetyzmie, w którym nakreślił tzw. równania Maxwella, przewidując w ten sposób istnienie fal elektromagnetycznych i efekt „ciśnienia światła”.
1877 A. Hall odkrył satelity Marsa – Deimosa, Fobosa. W tym samym roku kanały marsjańskie odkrył Włoch G. Schiaparelli.
1879 Angielski astronom J. H. Darwin opublikował hipotezę dotyczącą pływowego pochodzenia Księżyca. S. Fleming proponuje podział Ziemi na strefy czasowe.
1884 26 krajów przyjęło czas standardowy zaproponowany przez Fleminga. Greenwich zostało wybrane w drodze międzynarodowego porozumienia na południk zerowy.
1896 W pobliżu Procyonu odkryto satelitę, zgodnie z przewidywaniami Bessela.
1898 W. G. Pickering odkrył księżyc Saturna Phoebe z jego zdolnością do obracania się w kierunku przeciwnym do swojej planety.
Początek XX-wieczni naukowcy G. von Zeipel i G. K. Plummer zbudowali pierwsze modele układów gwiazdowych.
1908 George Hale po raz pierwszy odkrył pole magnetyczne w obiekcie pozaziemskim, którym stało się Słońce.
1915-1916 Einstein opracował ogólną teorię względności, definiując nową teorię grawitacji. Naukowiec doszedł do wniosku, że zmiana prędkości działa na ciała jak siła grawitacji. Jeśli Newton kiedyś nazwał orbity planet ustalonych wokół Słońca, wówczas Einstein argumentował, że Słońce ma pole grawitacyjne, w wyniku czego orbity planet dokonują powolnego dodatkowego obrotu.
1918 Amerykanin Harlow Shapley na podstawie obserwacji opracował model budowy Galaktyki, podczas którego ujawniono prawdziwe położenie Słońca – krawędź Galaktyki.
1926-1927 - B. Lindblad i Jan Oort analizując ruch gwiazd dochodzą do wniosku o rotacji Galaktyki.
W 1931 r. Radioastronomia rozpoczęła się od eksperymentów K. Janskiego.
1932 Jansky odkrył emisję radiową pochodzenia kosmicznego. Pierwsze radiowe źródło ciągłego promieniowania zostało zidentyfikowane jako źródło w centrum Drogi Mlecznej.
1937 Amerykanin G. Reber zaprojektował pierwszy radioteleskop paraboliczny, którego średnica wynosiła 9,5 m.
Lata 50 Odkryto promienie rentgenowskie pochodzące ze Słońca. Położono początek astronomii rentgenowskiej.
Lata 50 powstanie współczesnej astronomii w podczerwieni. Badanie informacji w zakresie pomiędzy promieniowaniem widzialnym.
1953 J. de Vaucouleurs odkrył pierwszą supergromadę galaktyk, zwaną także Lokalną.
1957 Rozpoczyna się era kosmosu wraz z wystrzeleniem sztucznych satelitów Ziemi.
1961 Pierwszy lot człowieka w przestrzeń kosmiczną. Pierwszym kosmonautą został Jurij Gagarin.
1962 Uruchomiono Orbitalne Obserwatorium Słoneczne, dzięki któremu możliwe stało się systematyczne prowadzenie obserwacji promieniowania ultrafioletowego, co dało początek rozwojowi astronomii ultrafioletowej.
1962 Odkrycie pierwszego źródła promieniowania rentgenowskiego poza Układem Słonecznym – Scorpius X-
1965 Pierwszy spacer kosmiczny człowieka w wykonaniu Aleksieja Leonowa. Czas trwania wyjścia wynosił 23 minuty. 41 sek.
1969 Stopa człowieka postawiła stopę na powierzchni Księżyca. Pierwszym astronautą na powierzchni Księżyca był Neil Armstrong.
Uruchomienie w 1991 roku Obserwatorium promieni gamma w Compton, co dało potężny impuls rozwojowi astronomii promieniowania gamma.



Podobne artykuły

  • Leniwa babeczka z brzoskwiniami Babeczka twarogowa z żelatyną i brzoskwiniami

    Niewielu z nas może oprzeć się słodkiemu wyrobowi cukierniczemu. Babeczki są popularne w wielu krajach na całym świecie. Tyle, że ich metoda gotowania i przepis są różne. Leniwa babeczka brzoskwiniowa jest niesamowicie pyszna i delikatna. Aby to przygotować...

  • Ser z czosnkiem i majonezem - przepis

    Ser i czosnek doskonale komponują się z jajkami i majonezem, a łącząc wszystkie składniki razem, otrzymujemy doskonałą przystawkę na zimno, która ozdobi i urozmaici każdy świąteczny stół. Wszystkie elementy są bardzo łatwo dostępne i...

  • Soczyste kotlety z indyka: przepisy kulinarne ze zdjęciami

    Mielony indyk nie jest tak popularny jak mielona wieprzowina, kurczak czy nawet wołowina. Niemniej jednak kotlety z niego wychodzą w sam raz! Bardzo delikatne, soczyste, puszyste, aromatyczne, ze złocistobrązową skórką. Krótko mówiąc, marzenie głodnego człowieka! Pozwol sobie powiedziec...

  • Przepis na ciasto na cienkie naleśniki na wodzie

    Czy wiecie, że na Rusi pancakes cieszyły się szczególnym zainteresowaniem w dni postne, których jest ich około dwustu rocznie? Początkowo gotowano z drożdżami, dzięki czemu naleśniki okazały się puszyste, obszerne i satysfakcjonujące, co szczególnie doceniono w...

  • Dietetyczne danie z mielonego kurczaka: przepisy kulinarne ze zdjęciami

    Kurczak mielony to stosunkowo niedrogi produkt, który można łatwo przygotować samodzielnie. Kotlety wychodzą delikatne i soczyste, ale mało kto miałby ochotę często jeść to samo danie. Dlatego żadnej gospodyni domowej nie zaszkodzi wiedzieć, że...

  • Leniwe ciasto z twarogu i skondensowanego mleka

    Leniwe ciasto to wyjątkowy rodzaj deseru, przygotowywany na różne sposoby, z dowolnym rodzajem nadzienia. Czasami każdy ma ochotę zafundować sobie coś niezwykłego, smacznego i, jak na kobietę, niskokalorycznego. Ten przepis jest właśnie tym, czego potrzebujesz, nie...