Можноли Скопировать сайт (не динамически формируемый) целиком с сохранением функциональности?

интернет Компьютеры программы веб дизайн

Всем привет, заранее простите за возможное нубство в вопросе.
Интересует возможность сохранения сайта\страницы целиком с сохранением структуры, но не как это делают UnMHT или ScrapBook - а целиком?
точнее я в итоге хочу получить примерно следущее:
Допустим я в браузере зашел на какую либо страницу\сайт - и захотел его себе скопировать, но так чтоб в итоге он\она целиком уменя сохранился в какуюлибо папку, потом допустим я эту копию размещаю у другого хостера - и она работает как оригинал (Разумеется с другим доменным именем), или я например у себя в host прописал для имени этого сайта путь к этой папке , и в следующий раз когда я в браузере введу имя этого сайта - он уменя загрузился из моей локальной папки (Например когда я оффлайн)- я скажем каким либо образом в DNS своей локальной (Домашней) сети пропишу этот путь - то другие пользователи моей сети - также вводя в браузере имя этого сайта- загружали сайт из моей папки.
Т.е. можноли скопировать сайт целиком (или большую его части) с сохранением структуры, чтоб потом потльзоваться его копией оффлайн (По пути к папке с сохранением).
P.S.
Я понимаю? что сейчас почти все сайты динамические- и контент генерируется прямо на странице, я не проних
- я про статические сайты и страницы.
Например онлайн энциклопедии или еще чего в томже духе.
Например захотел я выкачать тотже лурк (это я для примера энциклопедии) - выкачал его (tесли это возможно)- а потом в офлайне- ввожу у себя в браузере Lurkmore.to (Host - перенаправляет меня в локальую папку куда он сохранен) - и я им пользуюсь как будто онлайн(разумеется теме статьями которые выкачал - тоесть работают перекрестные ссылки и ведут они не на онлайновый сайт- а на коппии страниц размещенных уменя локально?).
- Или все что я здесь написал- нереализуемо или настолько сложно что проще написать заного- чем скопировать сайт из интернета.

Примечание:
Спасибо за ответы, но может я не совсем корректно выразился
Меня интересует - можно ли так выкачать сайт- чтоб потом его разместить на другом хостинге или на своем сервере в локальной сети - чтобы он работал (Или хотябы большая его часть?)
т.е. все как с обычным оффлайн браузером- но в результате- папку с выкаченым сайтом- можно разместить в сети и сайт будет работать(под другим доменный именем или под темже но в локальной сети правило в DNS перенаправляет на эту папку)?
- вроде как украсть сайт (Не домен- а сам контент)
Понятно что можно самому (при наличии прокаченого скила бебдизацна) создать свой сайт и ручками создать фейк оригинала-(Движок, контент, оформление)- но вот какраз при отсутсвии данного склила- может есть специальные утилиты- помогающие в этом (Пусть не динамический сайт, а статический без полнофункционального движка). Незнаю как еще сформулировать вопрос подругому. В итоге я хочу получить примерно следующее:
Я натравил скажем искомую утилиту на какой либо сайт (Онлайн энциклопедию скажем) - указал папку (разумеется если у меня хватит места чтоб выкачать весь сайт с картинками видео и прочим)- сайт выкачался - затем я у себя в локальной сети( или на другом хостинге) на сервере - размещаю эту папку и далее в браузере по адресу (сервер\Паппка\(имя_энциклопедии).index.php(html)) - этот энциклопедия мне(пользователям моей сети) доступна и работает( с внутренними ссылками,переходами, картинками., видео)
Както так.
возможно ли это? есть ли утилиты?

Примечание:
скила бебдизацна = скила вебдизайна(извините опечатка, как и много где еще- но исправлять ошибки здесь нельзя:((
Ответы:
Почему нет, конечно можно. Раньше когда интернет был медленный были программы по выкачиванию сайтов. Конечно это не верное решение но в принципе конечно возможно. Ведь браузер показывает уже сгенерированную страницу, а вы ее получаете и сохраняете. Конечно какой то функционал работать не будет. Сложно так же понять как проиходит переход по страницам. Если там например человеко-понятные-уры, и как бы выглядят логично, то и переход как то будет работать, а если там все ?id=w3&asd=56 и так далее то сложно понимаю. Думаю что какая то программа по выкачке это конечно решает.
teleport pro
как пример программы для полного выкачивания сайта.
Внутренние переходы по сайту она сама подменит (при необходимости) на локальные пути, внешние переходы оставит внешними.
1 возжножно.
2 по лурку. они распостраняются ужэ в архивах под просмотрщики, поэтому с ними вообще гемора нет
Есть токая программка HTTrack Website Copier 3.47-20. позволяет загружать на комп целый сайт, и потом локально просматривать. Можно даже потом обновлять.  Не знаю толи что вам нужно, посмотрите сами.


10 лет назад

RPI.su - самая большая русскоязычная база вопросов и ответов. Наш проект был реализован как продолжение популярного сервиса otvety.google.ru, который был закрыт и удален 30 апреля 2015 года. Мы решили воскресить полезный сервис Ответы Гугл, чтобы любой человек смог публично узнать ответ на свой вопрос у интернет сообщества.

Все вопросы, добавленные на сайт ответов Google, мы скопировали и сохранили здесь. Имена старых пользователей также отображены в том виде, в котором они существовали ранее. Только нужно заново пройти регистрацию, чтобы иметь возможность задавать вопросы, или отвечать другим.

Чтобы связаться с нами по любому вопросу О САЙТЕ (реклама, сотрудничество, отзыв о сервисе), пишите на почту [email protected]. Только все общие вопросы размещайте на сайте, на них ответ по почте не предоставляется.