Новые сообщения в профилях

1000019765.jpg

Baшeму внимaнию пpедлaгается новый, большой, комфортабельный, ВЕЛИКОЛЕПНЫЙ катep вмecтимocтью дo 11 человек.
Длинa 9,2 м, ширинa 2,1 м.
Фoтo катера cвeжие и aктуальные. Отправлeние и пoсaдка пpоизвoдитcя pядoм co ст. м. Cпортивнaя, на Ждановском причале.

Прaйс-лист дo 8 гoстeй:

ПH-ЧТ (дo 18:00) - 5900 зa чac
ПН-ЧТ (18:00 - 23:00) - 6900 зa чac
ПT-ВС (дo 18:00) - 6900 за час
ПТ-ВС (18:00 - 23:00) - 7900 за час
Разведение мостов - 17900 за 2 часа
Салюты, парад - от 269000 за 2 часа

Наличный и безналичный расчёт. Каждый следующий гость - плюс 1000 руб/чел за час.

У нас на борту вы можете провести:
Романтическое свидание
Семейный отдых
Фотосессии
Прогулки
Девичник/мальчишник
Просто отдых у воды

Мы покажем вам город! Увидим разводные мосты, прогуляемся по Неве в самом центре или выйдем в Финский залив к знаменитому Лахта-центру.

Для вас на борту:
Тент от дождя и ветра
Обогрев каюты и палубы
Туалет и умывальник
Возможность зарядить телефон
Музыка (подключение ваших устройств)
Жилеты безопасности, аптечка
Теплые пледы и подушки
Возможность взять на борт еду и напитки
Каюта во весь рост
Открытая палуба
Пресная вода,
Холодильник,
Стол,
Бокалы, посуда.

Лицензия на перевозку пассажиров. Пассажиры застрахованы.

Предложение напрямую от собственника, без посредников и переплат. Звоните, подберем удобное для вас время.

Алексей +79111559972
1000020798.jpg


1000020744.jpg

1000020735.jpg

1000020732.jpg

1000020747.jpg

1000020790.jpg

1000019771.jpg

1000019735.jpg





Gallery_1756155748507.jpg

Screenshot_20250825_225513_com_android_chrome_CustomTabActivity.jpg

О компании «Невская судоверфь»
ООО «Невская судоверфь» - это специализированное предприятие по серийному производству
судов из композитных материалов.Наше предприятие работает, основываясь на многолетнем опыте наших разработчиков, высокой квалификации наших сотрудников и использования новейших технологий. Мы разработали собственную линейку маломерных судов: лодки, шлюпки, катера и т.д. Наши лодки построены со знанием хорошей морской практики. Они скоростные,маневренные,прочные и надежные. Вся продукция ООО «Невская Судоверфь» изготавливается из самого высококачественного сырья и прослужит Вам не один десяток лет.
Иконка ресурса

DALLE-pytorch 2021-01-21

Нет прав для скачивания
DALL · E представляет собой версию GPT-3 с 12 миллиардами параметров, обученную генерировать изображения из текстовых описаний с использованием набора данных из пар текст-изображение.

DALL · E принадлежит OpenAI которая не открывает код.
Данный репозиторий — это реализация/репликация DALL-E с открытыми исходниками.


Реализация / репликация DALL-E, трансформатора текста OpenAI в изображение, в Pytorch. Он также будет содержать клип для ранжирования поколений.

Сид, Бен и Аран в Eleuther AI работают над DALL-E для Mesh Tensorflow! Пожалуйста, протяните им руку помощи, если вы хотите увидеть, как Далл-и тренируется на ТПУ.

Прежде чем повторить это, мы можем довольствоваться глубоким оцепенением или глубоким сном

Статус
Ханну удалось натренировать небольшой 6-слойный DALL-E на наборе данных всего из 2000 ландшафтных изображений! (2048 визуальных маркеров)

756


Устанавливать
$ pip install dalle-pytorch

Usage
Train VAE

import torch
from dalle_pytorch import DiscreteVAE

Код:
vae = DiscreteVAE(
    image_size = 256,
    num_layers = 3,          # number of downsamples - ex. 256 / (2 ** 3) = (32 x 32 feature map)
    num_tokens = 8192,       # number of visual tokens. in the paper, they used 8192, but could be smaller for downsized projects
    codebook_dim = 512,      # codebook dimension
    hidden_dim = 64,         # hidden dimension
    num_resnet_blocks = 1,   # number of resnet blocks
    temperature = 0.9,       # gumbel softmax temperature, the lower this is, the harder the discretization
    straight_through = False # straight-through for gumbel softmax. unclear if it is better one way or the other
)

images = torch.randn(4, 3, 256, 256)

loss = vae(images, return_recon_loss = True)
loss.backward()

# train with a lot of data to learn a good codebook
Train DALL-E with pretrained VAE from above



import torch
from dalle_pytorch import DiscreteVAE, DALLE

vae = DiscreteVAE(
    image_size = 256,
    num_layers = 3,
    num_tokens = 8192,
    codebook_dim = 1024,
    hidden_dim = 64,
    num_resnet_blocks = 1,
    temperature = 0.9
)

dalle = DALLE(
    dim = 1024,
    vae = vae,                  # automatically infer (1) image sequence length and (2) number of image tokens
    num_text_tokens = 10000,    # vocab size for text
    text_seq_len = 256,         # text sequence length
    depth = 12,                 # should aim to be 64
    heads = 16,                 # attention heads
    dim_head = 64,              # attention head dimension
    attn_dropout = 0.1,         # attention dropout
    ff_dropout = 0.1            # feedforward dropout
)

text = torch.randint(0, 10000, (4, 256))
images = torch.randn(4, 3, 256, 256)
mask = torch.ones_like(text).bool()

loss = dalle(text, images, mask = mask, return_loss = True)
loss.backward()

# do the above for a long time with a lot of data ... then

images = dalle.generate_images(text, mask = mask)
images.shape # (2, 3, 256, 256)
Ranking the generations
Train CLIP

Код:
import torch
from dalle_pytorch import CLIP

clip = CLIP(
    dim_text = 512,
    dim_image = 512,
    dim_latent = 512,
    num_text_tokens = 10000,
    text_enc_depth = 6,
    text_seq_len = 256,
    text_heads = 8,
    num_visual_tokens = 512,
    visual_enc_depth = 6,
    visual_image_size = 256,
    visual_patch_size = 32,
    visual_heads = 8
)

text = torch.randint(0, 10000, (4, 256))
images = torch.randn(4, 3, 256, 256)
mask = torch.ones_like(text).bool()

loss = clip(text, images, text_mask = mask, return_loss = True)
loss.backward()

To get the similarity scores from your trained Clipper, just do

images, scores = dalle.generate_images(text, mask = mask, clip = clip)

scores.shape # (2,)
images.shape # (2, 3, 256, 256)

# do your topk here, in paper they sampled 512 and chose top 32
Or you can just use the official CLIP model to rank the images from DALL-E

Scaling depth
In the blog post, they used 64 layers to achieve their results. I added reversible networks, from the Reformer paper, in order for users to attempt to scale depth at the cost of compute. Reversible networks allow you to scale to any depth at no memory cost, but a little over 2x compute cost (each layer is rerun on the backward pass).

Simply set the reversible keyword to True for the DALLE class

Код:
dalle = DALLE(
    dim = 1024,
    vae = vae,
    num_text_tokens = 10000,
    text_seq_len = 256,
    depth = 64,
    heads = 16,
    reversible = True  # <-- reversible networks https://arxiv.org/abs/2001.04451
)

Sparse Attention
You can also train with Microsoft Deepspeed's Sparse Attention, with any combination of dense and sparse attention that you'd like. However, you will have to endure the installation process.

First, you need to install Deepspeed with Sparse Attention

$ sh install_deepspeed.sh

Next, you need to install the pip package triton

$ pip install triton

If both of the above succeeded, now you can train with Sparse Attention!

Код:
dalle = DALLE(
    dim = 512,
    vae = vae,
    num_text_tokens = 10000,
    text_seq_len = 256,
    depth = 64,
    heads = 8,
    sparse_attn = (True, False) * 32  # interleave sparse and dense attention for 64 layers
)

Citations
Код:
@misc{unpublished2021dalle,
    title   = {DALL·E: Creating Images from Text},
    author  = {Aditya Ramesh, Mikhail Pavlov, Gabriel Goh, Scott Gray},
    year    = {2021}
}
@misc{unpublished2021clip,
    title  = {CLIP: Connecting Text and Images},
    author = {Alec Radford, Ilya Sutskever, Jong Wook Kim, Gretchen Krueger, Sandhini Agarwal},
    year   = {2021}
}
@misc{kitaev2020reformer,
    title   = {Reformer: The Efficient Transformer},
    author  = {Nikita Kitaev and Łukasz Kaiser and Anselm Levskaya},
    year    = {2020},
    eprint  = {2001.04451},
    archivePrefix = {arXiv},
    primaryClass = {cs.LG}
}

Those who do not want to imitate anything, produce nothing. - Dali
Автор
CodePlace
Скачивания
0
Просмотры
792
Первый выпуск
Обновление
Рейтинг
0.00 звезд Оценок: 0

Другие ресурсы пользователя CodePlace