40m QIL Cryo_Lab CTN SUS_Lab TCS_Lab OMC_Lab CRIME_Lab FEA ENG_Labs OptContFac Mariner WBEEShop
  40m Log, Page 2 of 168  Not logged in ELOG logo
Entry  Sat Feb 26 01:01:40 2022, Tega, Update, VAC, Ongoing work to get the FRG gauges readouts to EPICs channels 
I will make a detailed elog later today giving a detailed outline of the connection from the Agilent gauge controller to the vacuum subnet and the
work I have been doing over the past two days to get data from the unit to EPICs channels. I just want to mention that I have plugged the XGS-600 gauge
controller into the serial server on the vacuum subnet. I check the vacuum medm screen and I can confirm that the other sensors did not experience and
    Reply  Sat Feb 26 15:45:14 2022, Tega, Update, VAC, Ongoing work to get the FRG gauges readouts to EPICs channels Vac-gauges-flow-diagram.png
I have attached a flow diagram of my understanding of how the gauges are connected to the network.

Earlier today, I connected the XGS-600 gauge controller to the IOLAN Serial Device Server on port 192.168.114.22 .

The plan is a follows:
       Reply  Mon Feb 28 19:15:10 2022, Tega, Update, VAC, Ongoing work to get the FRG gauges readouts to EPICs channels 
I decided to create an independent service for the XGS data readout so we can get this to work first before trying to integrate into current system.
After starting the service, I noticed that the EPICS channel were not updating as expected. So I started to debug the problem and managed to track it down
to an ip socket connect() error, i.e. we get a connection error for the ip address assigned to the LAN port to which the XGS box was connected. After trying
       Reply  Tue Mar 1 20:38:49 2022, Tega, Update, VAC, Ongoing work to get the FRG gauges readouts to EPICs channels Working_Serial_Port_List_1.pngWorking_Serial_Port_List_2.pngWorking_Config_Ports#1-5.pngWorking_Config_Ports#7-8.png
During my investigation, I inadvertently overwrote the serial port configuration for the connected devices. So I am now working to get it all back. I
have attached screenshots of the config settings that brought back communication that is not garbled. There is no physical connection to port 6, which
I guess was initially used for the UPS serial communication but not anymore. Also, ports 9 and 10 are connected to Hornet and SuperBee, both of which
          Reply  Wed Mar 2 11:50:39 2022, Tega, Update, VAC, Ongoing work to get the FRG gauges readouts to EPICs channels XGS600_IOLAN_settings_1.pngXGS600_IOLAN_settings_2.pngXGS600_USBserial_settings.pngXGS600_comm_test.pyXGS600_comm_test_result.txt
Here is the IOLAN SDS TCP socket setting and the USBserial setting for comparison.

I have also included the python script and output from the USBserial test from earlier.
             Reply  Wed Mar 2 12:40:08 2022, Tega, Update, VAC, Ongoing work to get the FRG gauges readouts to EPICs channels 6x
Connector Test:

A quick test to rule out any issue with the Ethernet to Serial adapter was done using the setup shown in Attachment 1. The results rule out any
connector problem.
                Reply  Sun Mar 6 18:14:45 2022, Tega, Update, VAC, Ongoing work to get the FRG gauges readouts to EPICs channels iolan_xgs_comm_investigation.pdf
Following repeated failure to establish communication between c1vac and the XGS600 controller via Perle IOLAN serial device server, I decided to monitor the
signal voltage of the communication channels (pin#2, pin#3 and pin#5) using an oscilloscope. The result of this investigation is presented
in the attached pdf document. In summary, it seems I have used a crossed wired RS232 serial cable instead of a normal RS232 serial cable, so the c1vac
                   Reply  Mon Mar 7 13:53:40 2022, Tega, Update, VAC, Ongoing work to get the FRG gauges readouts to EPICs channels iolan_xgs_comm_live.pdf
So it appears that my deduction from the pictures of needing a cable swap was correct, however, it turns out that the installed cable was actually
the normal RS232 and what we need instead is the RS232 null cable. After the swap was done, the communication between c1vac and the XGS600 controller became
active. Although, the data makes it all to the to c1vac without any issues, the scope view of it shows that it is mainly utilizing the upper half of
                      Reply  Mon Mar 7 14:52:34 2022, Koji, Update, VAC, Ongoing work to get the FRG gauges readouts to EPICs channels 
Great trouble shoot!

> I guess, the only remaining issue now is the incorrect atmospheric pressure reading of 1000 Torrs. 

This is just a calibration issue. The controller should have the calibration function.
                         Reply  Tue Mar 8 12:08:47 2022, Tega, Update, VAC, Ongoing work to get the FRG gauges readouts to EPICs channels XGS600_calibration.pdf
OMG, it worked! It was indeed a calibration issue and all I had to do was press the "OK" button after selecting the "CAL" tab beside
the pressure reading. Wow.




Entry  Mon Mar 7 10:06:32 2022, Yehonathan, Update, IOO, IMC unlocked again, completely misaligned Screenshot_2022-03-07_10-15-19.png
Came this morning and saw that the IMC is unlocked.

Went into MC Lock screen and see that the watchdog is down and the PSL shutter is closed. I tried to open the shutter but nothing happened -
no REFL signal or beam on the MC REFL camera .
    Reply  Mon Mar 7 14:55:33 2022, Koji, Update, IOO, IMC unlocked again, completely misaligned 
Hmm, the bias values were reset at 2022-03-03-20:01UTC which is 2022-03-03-12:01 PST with no apparent disruption of the data acquisition (= no resetting
of the RTS). Not sure how this could happen.

 
Entry  Sat Mar 5 01:58:49 2022, Koji, Summary, CDS, paola rescue PXL_20220305_035255834.jpgPXL_20220305_034649120.MP.jpg
ETMY end ThinkPad "paola" could not reboot due to "Fan Error". It seems that it is the failure of the CPU fan. I really needed a
functional laptop at the end for the electronics work, I decided to open the chassis. By removing the marked screws at the bottom lid, the keyboard was
lifted. I found that the CPU fan was stuck because of accumulated dust. Once the fan was cleaned,
Entry  Fri Mar 4 18:12:44 2022, Koji, Update, VAC, RGA pumping down Screenshot_2022-03-04_19-38-11.png
1. Jordan reported that the newly installed Pirani gauge for P2 shows 850Torr while PTP2 show 680 Torr. Because of this, the vacuum interlock fails when
we try to open V4.

2. Went to c1vac. Copied the interlock setting file interlock_conditions.yaml to interlock_conditions_220304.yaml
Entry  Mon Feb 7 09:00:26 2022, Paco, Update, General, Scheduled power outage recovery 
[Paco]

Started recovering from scheduled (Feb 05) power outage. Basically, time-reversing through this
list.
    Reply  Mon Feb 7 15:32:48 2022, Yehonathan, Update, General, Y End laser controller 
I went to the Y end. The AUX laser was on Standby. I pushed the Standby button. The laser turned on and there was some green light. However, the controller
displayed the message "CABLE?" which according to the manual means that the laser head is powered but there is no control over the laser (e.g.
the control cable is disconnected). I turned off the controller and disconnected both the power and control cables. I put them back and turned the controller
    Reply  Mon Feb 7 16:53:02 2022, Koji, Update, General, Scheduled power outage recovery PXL_20220208_001646282.jpgPXL_20220208_001657871.jpg
I went to the X end and found it was warm. Turned out that not all the A/Cs were on. They were turned on now.
       Reply  Wed Feb 9 11:56:24 2022, Anchal, Update, General, Bringing back CDS Screenshot_2022-02-09_12-11-33.png
[Anchal, Paco]

Bringing back CDS took a lot of work yesterday. I'm gonna try to summarize the main points here.


mx_start_stop

For some reason, fb1 was not able to mount mx devices automatically on system boot. This was
          Reply  Wed Feb 9 13:55:05 2022, Koji, Update, General, Bringing back CDS 
Great recovery work and cleaning of the rebooting process.

I'm just curious: Did you observe that the c1sus2 cards have different numbering order than the previous along with the power outage/cycling?
       Reply  Wed Feb 9 16:43:35 2022, Paco, Update, General, Scheduled power outage recovery - Locking mode cleaner(s) 
[Paco, Anchal]


We went in and measured the power after the power splitting HWP at the PSL table. Almost right before the PSL shutter (which was closed),
when the PMC was locked we saw ~ 598 mW (!!)
Checking back on ESP300, it seems the channel was not enabled even though the right angle was punched
          Reply  Thu Feb 10 15:41:00 2022, Anchal, Update, General, Scheduled power outage recovery - Locking mode cleaner(s) 
I found out that the ESP300 service needs to be run in root mode for it to be able to connect to the USB port of HWP motor controller. While doing this
change, I noticed that the channels hosted by c1psl might have a duplication conflict with some other channel hosting computer, because a lot of them show
the Warning: "Identical process variable names on multiple servers" which is not good. Someone should look into this conflict.
             Reply  Thu Feb 10 17:57:48 2022, Anchal, Update, General, Scheduled power outage recovery - Locking mode cleaner(s) PXL_20220211_021509819.jpg
Something is wrong with the Video MUX. The system did not turn back on with full functionality. Even though we see the screens as they were before the
power shutdown, we have lost control on switching any of the videos. I went to check the wiki
page about Video MUX which told be we should be able to see the configuration screen on this link, but the page
                Reply  Thu Feb 10 19:03:23 2022, Koji, Update, General, Scheduled power outage recovery - Locking mode cleaner(s) 
I came back to the 40m and started the investigation.

If I ping 192.168.113.92, it responds. But telnet (port 23) was rejected. I somehow tried ssh and it responds! I even could login to the host
using usual password. Here is the prompt.
                   Reply  Thu Feb 10 19:46:37 2022, Koji, Update, General, Scheduled power outage recovery - Locking mode cleaner(s) 
== Assign new IP address to c1sus2 ==

cf: [40m ELOG 16398] [40m
ELOG 16396]
                      Reply  Thu Feb 10 21:10:43 2022, Koji, Update, General, Video Mux setting reset Screenshot_2022-02-10_21-11-21.pngScreenshot_2022-02-10_21-11-54.png
Now the video matrix is responding correctly and the web interface shows up. (Attachment 1)

Also the video buttons respond as usual. I pushed Locking Template button to bring the setting back to nominal. (Attachment 2)
             Reply  Fri Feb 11 16:09:11 2022, Anchal, Update, General, Scheduled power outage recovery - Input power increased 
We increased the input power to IMC by replacing the 98% transmission BS by a 10% transmission BS on the detection table (reverse of what mentioned in
40m/16408 see attachment 8-9). We then realigned the BS so that MC RFPD is centered. Then we realigned two steering mirrors to get the beam centered on
                Reply  Mon Feb 14 18:31:50 2022, Paco, Update, General, Scheduled power outage recovery - IMC recovery progress 
[Paco, Anchal, Tega]

We have been realigning the IMC as of last Friday (02/11). Today we made some significant progress (still at high input power), but the IMC autolocker
is unable to engage a stable mode lock. We have made some changes to reach this point, including re-centering of the MC1 REFL beam on the ccd, centering
                   Reply  Tue Feb 15 19:32:50 2022, Koji, Update, General, Scheduled power outage recovery - IMC recovery progress PXL_20220216_001731377.jpgScreen_Shot_2022-02-15_at_16.18.16.pngPXL_20220216_001727465.jpgScreen_Shot_2022-02-15_at_16.22.16.pngPXL_20220216_002229572.jpg
Reduced the IMC power to 100mW

Setup: The power meter was placed right before the final aperture (Attachment 1)

Before the adjustment: Initial position of the HWP was 37.29deg and the input power was 987mW (Attachments 2/3)
                      Reply  Tue Feb 15 19:40:02 2022, Koji, Update, General, IMC locking 
IMC is locking now. There was nothing wrong: just a careful alignment + proper gain adj

=== Primary Alignment ===

- I used WFS error signals as the indicator of the PDH error signals. Checked C1:IOO-WFS1_(I/Q)n_ERR and ended up C1:IOO-WFS1_I4_ERR
                         Reply  Wed Feb 16 15:19:41 2022, Anchal, Update, General, Reconfigured MC reflection path for low power 
I reconfigured the MC reflection path for low power. This meant the following changes:


Replaced the 10% reflection BS by 98% reflection beam splitter
Realigned the BS angle to get maximum on C1:IOO-MC_RFPD_DCMON
when cavity is unlocked.
Then realigned the steering mirrors for WFS1 and WFS2.
I tried to align the light for MC reflection CCD
                            Reply  Wed Feb 23 15:08:57 2022, Anchal, Update, General, Removed extra beamsplitter in MC WFS path 
As discussed in the meeting, I removed the extra beam splitter that dumps most of the beam going towards WFS photodiodes. This beam splitter needs to be placed back in position before increasing the input power to IMC at nominal level. This is to get sufficient light on the WFS photodiodes so that we can keep IMC locked for more than 3 days. Currently IMC is unlocked
                               Reply  Thu Feb 24 14:32:57 2022, Anchal, Update, General, MC RFPD DCMON channel got stuck to 0 
I found a peculiar issue today. The C1:IOO-MC_RFPD_DCMON remains constantly 0. I wonder if the RFPF output is being read properly. I opened the table
and used an oscilloscope to confirm that the DC output from the MC REFL photodiode is coming consistently but our EPICs channel is not reading it. I tried
restarting the modbusIOC service but that did not affect anything. I power cycled the acromag chassis while keeping the modbusIOC service off, and then
                                  Reply  Thu Feb 24 19:26:32 2022, Anchal, Update, General, IMC Locking 
I think I have aligned the cavity, including MC1 such that we are seeing flashing of fundamental mode and significant transmission sum value as well.However,
I'm unable to catch lock following Koji's method in 40m/16673. Autolocker could not
catch lock either. Maybe I am doing something wrong, I'll pickup again tomorrow, hopefully the cavity won't drift too much in this time.
                                     Reply  Sun Feb 27 00:37:00 2022, Koji, Update, General, IMC Locking Recovery PXL_20220226_093809056.jpgPXL_20220226_093854857.jpgPXL_20220226_100859871.jpgScreenshot_2022-02-26_01-56-31.pngScreenshot_2022-02-26_01-56-47.png
Summary:

- IMC was locked.
- Some alignment change in the output optics.
                                        Reply  Sun Feb 27 01:12:46 2022, Koji, Update, General, IMC manual alignment procedure PXL_20220226_100859871.jpg
We expect that the MC sus are susceptible to the temperature change and the alignment drifts away with time.

Here is the proper alignment procedure.

0) Assume there is no TEM00 flash or locking, but the IMC is still flashing with higher-order modes.
    Reply  Fri Feb 11 11:17:00 2022, Anchal, Update, General, Scheduled power outage recovery 
I found that two computers are not powering up in the control room, Ottavia and Allegra. Allegra was important for us as it had the current version of
LIGO CDS workstation installed on, providing us with options to use latest packages written by LIGO CDS team. I think the power issue should be resolvable
if someone opens it and knows what thye are doing. Do we have any way of getting fuse repairs on such computers? Both these computers are Dell XPS 420.
       Reply  Mon Feb 14 21:03:25 2022, Koji, Update, General, Scheduled power outage recovery PXL_20220215_025325118.jpg
I opened the boxes. Allegra has obvious vent of at least 4 caps. And the power supply did not respond even a paper clip test was performed. https://www.silverstonetek.com/downloads/QA/PSU/PSU-Paper%20Clip-EN.pdf
(Paper Clip Test)
=> The mother board and the PSU are dead.
Entry  Mon Feb 14 18:43:49 2022, Paco, Summary, General, SOS materials clean room cleared 
[Yehonathan, Paco]

We put away most items used / involved in SOS assembly and characterization. Many were stored in the left-most cabinet in the clean area. The
OpLev test setup and optics were stored in the upper cabinets above the microscope area, and several screws and other general components were collected
Entry  Thu Feb 10 21:51:02 2022, Koji, Update, CDS, [Solved] Huge random numbers flowing into ETMX/ETMY ASC PIT/YAW Screenshot_2022-02-10_21-46-02.pngScreen_Shot_2022-02-10_at_21.54.21.pngScreen_Shot_2022-02-10_at_22.14.23.png
Huge random numbers are flowing into ETMX/ETMY ASC PIT/YAW. Because of this, I could not damp the ETMX/ETMY suspension at the beginning during the recovery
from rebooting. (Attachment 1)
By turning off the output of the ASC filters, the mirrors were successfully damped.
    Reply  Fri Feb 11 10:56:38 2022, Anchal, Update, CDS, [Solved] Huge random numbers flowing into ETMX/ETMY ASC PIT/YAW 
Yeah, this is a known issue actually. We go to ASC screen and manually swich off all the outputs after every reboot. We haven't been able to find
a way to set default so that when the model comes online, these outputs remain switched off. We should find a way for this.

 
       Reply  Fri Feb 11 12:22:19 2022, rana, Update, CDS, [Solved] Huge random numbers flowing into ETMX/ETMY ASC PIT/YAW 
you can hand edit the autoBurt file which the FE uses to set the values after boot up. Just
make a python script that amends all of the OFF or ZERO that are needed to make things safe. This would be the autoBurt snap used on boot up only, and
not the hourly snaps.
          Reply  Fri Feb 11 17:07:19 2022, Anchal, Update, CDS, [Solved] Huge random numbers flowing into ETMX/ETMY ASC PIT/YAW 
The autoBurt file for FE already has the C1:ASC-ETMX_PIT_SW2 (and other channels for ETMY, ITMX, ITMY, BS and for YAW) present, and I checked the last
snapshot file from Feb 7th, 2022, which has 0 for these channels. So I'm not sure why when FE boots up, it does not follow the switch configuration.
Fr safety, I changed all the gains of these filter modules, named like C1:ASC-XXXX_YYY_GAIN (where XXXX is ETMX, ETMY, ITMX, ITMY, or BS , and YYY is PIT
Entry  Thu Feb 10 21:16:27 2022, Koji, Summary, CDS, chiara resolv.conf wierdo 
During the videomux debug, I noticed that the host name resolving on chiara didn't behave well. Basically I could not login to anything from chiara
using host names.

I found that there was no /etc/resolv.conf. Instead, there is /etc/resolvconf directory.
Entry  Thu Feb 10 14:39:31 2022, Koji, Summary, Computers, Network security issue resolved PXL_20220210_220816955.jpgPXL_20220210_220827167.jpg
[Mike P / Koji / Tega / Anchal]

IMSS/LIGO IT notified us that "ILOM ports" of one of our hosts on the "114" network are open. We tried to shut down obvious
machines but could not identify the host in question. So we decided to do a bit more systematic search of the host.
Entry  Tue Nov 9 13:40:02 2021, Ian MacMillan, Summary, Computer Scripts / Programs, SUS Plant Plan for New Optics 
[Ian, Tega]

After talking with Rana we have an updated plan. We will be working on this plan step by step in this order.


Remove c1sim from the test stand rack and move it to the rack in the office next to the printer. When connecting it we will NOT
    Reply  Tue Nov 9 16:55:52 2021, Ian MacMillan, Summary, Computer Scripts / Programs, SUS Plant Plan for New Optics IMG_8107.JPG
[Ian, Tega]

We have moved c1sim computer from the test stand to the server rack in the office area. (see picture)

It is connected to the general campus network. Through the network switch at the top of the rack. This switch seeds the entire Martian network.
       Reply  Tue Nov 9 18:05:03 2021, Ian MacMillan, Summary, Computer Scripts / Programs, SUS Plant Plan for New Optics 
[Ian, Tega]

Now that the computer is in its new rack I have copied over the filter two files that I will use in the plant and the controller from pianosa:/opt/rtcds/caltech/c1/chans
to the docker system in c1sim:/home/controls/docker-cymac/chans. That is to say, C1SUP.txt -> X1SUP.txt and C1SUS.txt -> X1SUS_CP.txt, where
          Reply  Mon Nov 15 15:12:28 2021, Ian MacMillan, Summary, Computer Scripts / Programs, SUS Plant Plan for New Optics 
[Ian, Tega]

We are working on three fronts for the suspension plant model:


Filters

We now have the state-space matrices as given at the end of this post. From these matrices, we can derive transfer
             Reply  Tue Nov 16 17:29:49 2021, Ian MacMillan, Summary, Computer Scripts / Programs, SUS Plant Plan for New Optics x_x_TF1.pdf
[Ian, Tega]

Updated A, B, C, D matrices for the state-space model to remove bugs in the previous estimate of the system dynamics. Updated the last
post to represent the current matrixes.
                Reply  Thu Nov 18 20:00:43 2021, Ian MacMillan, Summary, Computer Scripts / Programs, SUS Plant Plan for New Optics Final_Plant_Testing.zip
[Ian, Raj, Tega]

Here is the comparison between the results of Raj's python model and the transfer function measurement done on the plant model by Tega and
me.
                   Reply  Mon Nov 22 16:38:26 2021, Tega, Summary, Computer Scripts / Programs, SUS Plant Plan for New Optics 
[Tega, Ian]

TODO

1. Investigate cross-coupling btw the various degrees of freedom (dof) - turn on noise for each dof in the plant model and measure the transfer
                      Reply  Mon Jan 24 17:10:25 2022, Tega, Summary, Computer Scripts / Programs, SUS Plant Plan for New Optics Screen_Shot_2022-01-24_at_5.33.15_PM.png
[Ian, Tega]

Connected the New SUS screens to the controller for the simplant model. Because of hard-coded links in the medm screen links, it was necessary
to create the following path in the c1sim computer, where the new medm screen files are located:
                         Reply  Thu Jan 27 16:40:57 2022, Tega, Summary, Computer Scripts / Programs, SUS Plant Plan for New Optics simplant_control_1.pngsimplant_control_0.png
[Ian, Paco, Tega]

Last night we set up the four main matrices that handle the conversion between the degrees of freedom bases and the sensor bases. We also wrote
a bash script to automatically set up the system. The script sets the four change of bases matrices and activates the filters that control the plant. this
                            Reply  Thu Feb 3 17:15:23 2022, Tega, Summary, Computer Scripts / Programs, SUS Plant Plan for New Optics Screen_Shot_2022-02-03_at_8.23.07_PM.png
Finally got the SIMPLANT damping to work following Rana's suggestion to try damping one DoF at a time, woo-hoo!

At first, things didn't look good even when we only focus on the POS DoF. I then noticed that the input value (X1:SUS-OPT_PLANT_TM_RESP_1_1_IN1)
to the plant was always zero. This was odd bcos it meant the control signal was not making its way to the plant. So I decided to look at the sensor data
                               Reply  Wed Feb 9 14:34:27 2022, Ian, Summary, Computer Scripts / Programs, SUS Plant Plan for New Optics SummaryMdemScreen.png
Restarted the C1sim machine at about 12:30 to help diagnose a network problem. Everything is back up and running
Entry  Mon Feb 7 16:14:37 2022, Tega, Update, Computers, realtime system reboot problem 
I was looking into plotting temperature sensor data trend and why we currently do not have frame data written to file (on /frames) since Friday, and
noticed that the FE models were not running. So I spoke to Anchal about it and he mentioned that we are currently unable to ssh into the FE machines, therefore
we have been unable to start the models. I recalled the last time we enountered this problem Koji resolved it on Chiara, so I search the elog for Koji's
Entry  Fri Feb 4 10:21:39 2022, Anchal, Summary, General, Complete lab shutdown Vac_Status_Screenshot_2022-02-04_10-19-24.png
Please edit this same entry throughout the day for the shutdown elogging.

I took a screenshot of C0VAC_MONITOR.adl to ensure that all pnematic valves are in closed positions:

Entry  Fri Feb 4 10:04:47 2022, Chub, Update, General, dish soap and clean scrub sponges! 40m_supplies.jpg
Bought dish soap and scrub sponges today and placed them under the sink with the other dish supplies.
Entry  Thu Feb 3 14:47:12 2022, Chub, Update, Electronics, new UPS in place 
Received the new 1100VA APC UPS today and placed it at the bottom of the valve rack.  I'd connected the battery and plugged the unit into the
AC outlet, but did not turn it on due to the power outage this weekend.
Entry  Thu Feb 3 10:25:59 2022, Jordan, Update, VAC, TP1 and Manual Gate Valve Install 20220203_101455.jpg20220203_094831.jpg20220203_094823.jpg
Jordan, Chub

Chub and I installed the new manual gate valve (Nor-Cal GVM-6002-CF-K79) and reinstalled TP1. The new gate valave was placed with the sealing
side towards the main 40m volume, then TP1 was installed on top and the foreline reattched to TP1.
Entry  Thu Jan 20 17:34:07 2022, Koji, Update, BHD, V6-704/705 Mirror now @Downs PXL_20220120_225248265_2.jpgPXL_20220120_225309361_2.jpg
The PR2 candidate V6-704/705 mirrors (Qty2) are now @Downs. Camille picked them up for the measurements.

To identify the mirrors, I labeled them (on the box) as M1 and M2. Also the HR side was checked to be the side pointed by an arrow mark on the
barrel. e.g. Attachment 1 shows the HR side up
    Reply  Fri Jan 21 14:51:00 2022, Koji, Update, BHD, V6-704/705 Mirror now @Downs M1.PNGM1_30mm.PNGM2.PNGM2_30mm.PNG
Camille@Downs measured the surface of these M1 and M2 using Zygo.

Result of the ROC measurements:M1: ROC=2076m (convex)M2: ROC=2118m (convex)
       Reply  Tue Feb 1 20:16:09 2022, Tega, Update, BHD, PR2 candidate mirror analysis PR2_M2_data.pngPR2_M2_recon_FoV_10mm.pngPR2_M2_residual_FoV_10mm.png
git repo: git@git.ligo.org:tega-edo/charmirrormap.git

The analysis code takes in a set of raw images, 10 in our case,  for each mirror and calculates the zernike aberration coefficients for
each image, then takes their average. This average value is used to reconstruct the mirror height map.  Finally, the residual error between the reconstructed
Entry  Mon Jan 31 10:39:19 2022, Jordan, Update, VAC, TP1 and Manual Gate Valve Removal 20220131_100637.jpg20220131_102807.jpg20220131_102818.jpg20220131_100647.jpg
Jordan, Chub

Today, Chub and I removed TP1 and the failed manual gate valve off of the pumping spool.

First, P2 needed to be vented in order to remove TP1. TP1 has a purge valve on the side of the pump which we slowly opened bringing the P2 volume
Entry  Mon Jan 24 12:33:41 2022, rana, Configuration, Wiki, AIC Wiki: txz files allowed 
I updated the mime.local.conf file for the AIC Wiki so as to allow attachments with the .txz
format. THis should be persistent over upgrades, since its a local file.
Entry  Thu Jan 6 22:18:47 2022, Koji, Update, CDS, SUS screen debugging Screen_Shot_2022-01-06_at_18.03.24.png
Indicated by the red arrow:
Even when the side damping servo is off, the number appears at the input of the output matrix

Indicated by the green arrows:
    Reply  Tue Jan 11 10:46:07 2022, Tega, Update, CDS, SUS screen debugging 
Seen. Thanks.

Red Arrow: The channel was labeled incorrectly as INMON instead of OUTPUT

Green Arrow: OK, I will create a custom medm screen for this.
       Reply  Fri Jan 21 12:46:31 2022, Tega, Update, CDS, SUS screen debugging Custom_ADC_DAC_monitors.png
All done (almost)! I still have not sorted the issue of pitch and yaw gains growing together when modified using ramping time. Image of custom ADC and
DAC panel is attached.

 
Entry  Tue Jan 11 10:58:58 2022, Tega, Update, SUS, Temporary watchdog 
Started working on this. First created a git repo for tracking https://git.ligo.org/40m/susaux.git

I have looked through the folder to see what needs doing and I think I know what needs to be done for the final case by just following the same
pattern for the other optics, which I am listing below
    Reply  Tue Jan 11 13:43:14 2022, Koji, Update, SUS, Temporary watchdog 
I don't remember the syntax of the db file, but here this calc channel computes A&B. And A&B corresponds to INPA and INPB.


        field(CALC,"A&B")
        field(INPA,"C1:SUS-LO1_UL_COMM  PP  NMS")
    Reply  Wed Jan 19 21:39:22 2022, Tega, Update, SUS, Temporary watchdog 
After some work on the reference database file, we now have a template for temporary watchdog implementation for LO1 located here "/cvs/cds/caltech/target/c1susaux/C1_SUS-AUX_LO1.db".

Basically, what I have done is swap the EPICS asyn analog input readout for the COIL and OSEM to accessible medm channels, then write out watchdog
enable/disable to coil filter SW2 switch. Everything else in the file remains the same. I am worried about some of the conversions but the only way to
       Reply  Thu Jan 20 00:26:50 2022, Koji, Update, SUS, Temporary watchdog 
As the new db is made for c1susaux, 1) it needs to be configured to be read by c1susaux 2) it requires restarting c1susaux 3) it needs to be recorded
by FB 4) and restartinbg FB.
(^-Maybe not super exact procedure but conceptually like this)
       Reply  Thu Jan 20 17:21:21 2022, Tega, Update, SUS, Temporary watchdog 
Temp software watchdog now operational for LO1 and the remaining optics!

Koji helped me understand how to write to switches and we tried for a while to only turnoff the output switch of the filters instead of
the writing a zero that resets everything in the filter.
Entry  Tue Jan 4 18:26:59 2022, Anchal, Update, BHD, Tested 2" PR2 candidates transmission 
I used the rejected light from the PBS after the motorized half-wave plate between PMC and IMC injection path (used for input power control to IMC) to
measure the transmission of PR2 candidates. These candidates were picked from QIL (QIL/2696).
Unfortunately, I don't think either of these mirrors can be used for PR2.
    Reply  Wed Jan 5 17:46:04 2022, Anchal, Update, BHD, Tested 2" PR2 candidates transmission 
I tested 2 more optics today, the old PR2 that we took out and another optic I found in QIL. Both these optics are also not good for our purpose.





 

Polarization
Incident Power [mW]
Transmitted Power [mW]
Transmission [ppm]


Existing
       Reply  Mon Jan 10 18:20:45 2022, Anchal, Update, BHD, Tested 2" PR2 candidates transmission 
I tested 2 more optics found by Paco and Yehonathan in QIL.




 
Polarization
Incident Power [mW]
Transmitted Power [mW]
Transmission [ppm]




          Reply  Tue Jan 11 15:21:16 2022, Anchal, Update, BHD, PR2 transmission calculation LO_power_vs_PR2_transmission.pdfPRC_Gain_vs_PR2_transmission.pdfPRS_Trans_Calc.ipynb.zip
I did this simple calculation where I assumed 1W power from laser and 10% transmission past IMC. We would go ahead with V6-704/V6-705 ATFilms 3/8"
optic. It would bring down the PRC gain to ~30 but will provide plenty of light for LO beam and alignment.
             Reply  Thu Jan 13 17:10:55 2022, Anchal, Update, BHD, PR2 transmission calculation LO_power_vs_PR2_transmission.pdfPRC_Gain_vs_PR2_transmission.pdfPR2_Trans_Calc.ipynb.zip
I corrected the calculation by adding losses by the arm cavity ends times the arm cavity finesse and also taking into account the folding of the cavity
mirror. I used exact formula for finesse calculation and divided it by pi to get the PRC gain from there. Attachment 3 is the notebook for referring to
the calculations I made.
                Reply  Fri Jan 14 03:07:04 2022, Koji, Update, BHD, PR2 transmission calculation 
I opened the notebook but I was not sure where you have the loss per bounce for the arm cavity.

    PRC_RT_Loss = 2 * PR3_T + 2 * PR2_T + 2 * Arm_Cavity_Finesse * ETM_T + PRM_T

Do you count the arm reflection loss to be only 2 * 13ppm * 450 = 1.17%?
                   Reply  Fri Jan 14 11:00:29 2022, Anchal, Update, BHD, PR2 transmission calculation 
Yeah, I counted the loss from arm cavities as the transmission from ETMs on each bounce. I assumed Michelson to be perfectly aligned to get no light
at the dark port.  Should I use some other number for the round-trip loss in the arm cavity?
                      Reply  Fri Jan 14 13:46:25 2022, Anchal, Update, BHD, PR2 transmission calculation updated LO_power_vs_PR2_transmission.pdfPRC_Gain_vs_PR2_transmission.pdfPR2_Trans_Calc.ipynb.zip
I updated the arm cavity roundtrip losses due to scattering. Yehonathan told me that arm cavity looses 50ppm every roundtrip other than the transmission
losses. With the updated arm cavity loss:




 
PRFPMI
                         Reply  Wed Jan 19 16:22:48 2022, Anchal, Update, BHD, PR2 transmission calculation updated PR2transmissionSelectionAnalysis.pdfPR2_Trans_Calc.ipynb.zip
I have further updated my calculation. Please find the results in the attached pdf.

Following is the description of calculations done:


Arm cavity reflection:

Reflection fro arm cavity is calculated as simple FP cavity reflection formula while
                            Reply  Thu Jan 20 01:48:02 2022, Koji, Update, BHD, PR2 transmission calculation updated 
IMC is not such lossy. IMC output is supposed to be ~1W.

The critical coupling condition is G_PRC = 1/T_PRM = 17.7. If we really have L_arm = 50ppm, we will be very close to the critical coupling. Maybe
we are OK if we have such condition as our testing time would be much longer in PRMI than PRFPMI at the first phase. If the arm loss turned out to be higher,
Entry  Wed Jan 19 14:41:23 2022, Koji, Update, BHD, Suspension Status 
Is this the correct status? Please directly update this entry.


LO1 [Glued] [Suspended] [Balanced] [Placed In Vacuum] [OSEM
Tuned] [Damped]
Entry  Fri Jan 14 14:04:51 2022, Paco, Update, Electronics, RFSoC 2x2 board arrived PXL_20220114_211249499.jpg
The Xilinx RFSoC 2x2 board arrived right before the winter break, so this is kind of an overdue elog. I unboxed it, it came with two ~15 cm SMA M-M cables,
an SD card preloaded with the ARM processor and a few overlay jupyter notebooks, a two-piece AC/DC adapter (kind of like a laptop charger), and a USB 3.0
cable. I got a 1U box, lid, and assembled a prototype box to hold this board, but this need not be a permanent solution (see Attachment #1). I drilled
Entry  Thu Dec 16 15:04:12 2021, Chub, Update, Electronics, ITMX feedthroughs and in-vac cables installed ITMX_feedthrough_install_12-16-21.jpg
The ITMX 10" flange with four DSUB-25 feedthroughs has been install with the cables connected at the in-vac side.  See photo; as requested,
LO1-1 and LO1-2 are connected to the top row of feedthroughs from left to right respectively and the opposite ends of the cables placed left to right on
the laser table.  PR2-1 and PR2-2 are connected to the lower row of feedthroughs from left to right respectively, with the opposite ends placed on
    Reply  Thu Dec 16 15:54:08 2021, Koji, Update, Electronics, ITMX feedthroughs and in-vac cables installed PXL_20211216_235056582.jpg
Thanks for the installation.

With regard to the connector convention, let's use the attached arrangement so that it will be consistent with the existing flange DSUB configuration.
Not a big deal.
    Reply  Mon Jan 10 15:45:55 2022, Paco, Update, Electronics, ITMY feedthroughs and in-vac cables installed - part I 
The ITMY 10" flange with 10 DSUB-25 feedthroughs has been installed with the cables connected at the in-vac side.  This is the first of two
flanges, and includes 5 cables ordered vertically in stacks of 3 & 2 for [[OMC-DCPDs, OMC-QPDs, OMC-PZTs/Pico]] and [[SRM1, SRM2]] respectively from
right to left. During installation, two 12-point silver plated bolts were stripped, so Chub had to replace them.
       Reply  Tue Jan 11 10:23:18 2022, Paco, Update, Electronics, ITMY feedthroughs and in-vac cables installed - part II 
[Paco, Chub]

The ITMY 10" flange with 4 DSUB-25 feedthroughs has been installed with the cables connected at the in-vac side. This is the second of two
flanges, and includes 4 cables ordered vertically in stacks of 2 & 2 for [[AS1-1, AS1-2, AS4-1, AS4-2]] respectively. No major incidents during this
          Reply  Tue Jan 11 14:21:53 2022, Paco, Update, Electronics, BS feedthroughs and in-vac cables installed 
[Paco, Yehonathan, Chub]

The BS chamber 10" flange with 4 DSUB-25 feedthroughs has been installed with the cables connected at the in-vac side. This is the second
of two flanges, and includes 4 cables ordered vertically in stacks of 2 & 2 for [[LO2-1, LO2-2, PR3-1, PR3-2]] respectively.
             Reply  Fri Jan 14 12:01:21 2022, Anchal, Update, Electronics, BS & ITMY feedthroughs labeled and connected to Sat Amps 
I labeled all the newly installed flanges and connected the in-air cables (40m/16530) to
appropriate ports. These cables are connected to the CDS system on 1Y1/1Y0 racks through the satellite amplifiers. So all new optics now can be damped
as soon as they are placed. We need to make more DB9 plugs for setting "Acquire" mode on the HAM-A coil drivers since our Binary input system
Entry  Tue Dec 14 19:29:42 2021, Paco, Update, BHD, 1Y0 rack work for LO1 
[Paco]

Two coil drivers have been installed on 1Y0 (slots 6, 7, for LO1 SOS). All connections have been made from the DAC, AI board, DAC adapter, Coil
driver, Sat Amp box. Then no SOS load installed, all return connections have been made from Sat Amp box, ADC adapter, AA board, and to ADC. We will continue
    Reply  Mon Jan 3 12:05:08 2022, Paco, Update, BHD, 1Y0 rack work for LO2 AS1 AS4 
[Paco, Anchal]

Continue working on 1Y0. Added coil drivers for LO2, AS1, AS4. Anchal made additional labels for cables and boxes. We lined up all cables, connected
the different units and powered them without major events.
       Reply  Mon Jan 3 16:46:41 2022, Paco, Update, BHD, 1Y1 rack work for SR2, PR2, PR3 
[Paco, Anchal]

Continued working on 1Y1 rack. Populated the 6 coil drivers, made all connections between sat amp, AA chassis, DAC, and ADC adapters for SR2,
PR2, and PR3 suspensions. Powered all boxes and labeled them and cables where needed. Near the end, we had to increase the current limit on the positive
          Reply  Fri Jan 7 17:54:13 2022, Anchal, Update, BHD, PR2 Sat Amp has a bad channel Screen_Shot_2022-01-07_at_6.05.39_PM.png
[Anchal, Paco]

Yesterday we noticed that one of the ADC channels was overflowing. I checked the signal chain and found that CH3 on PR2
Sat Amp was railing. After a lot of debugging, our conclusion is that possible the PD current input trace is shorted to the positive supply through
             Reply  Fri Jan 7 18:28:13 2022, Koji, Update, BHD, PR2 Sat Amp has a bad channel 
Leave the unit to me. I can look it at on Mon. For a while, you can take a replacement unit from the electronics stack.

Also: Was this unit tested before? If so, what was the testing result at the time?
                Reply  Mon Jan 10 13:35:52 2022, Anchal, Update, BHD, PR2 Sat Amp has a bad channel 
The unit was tested before by Tege. The test included testing the testpoint voltages only. He summarized his work in
this doc. The board number is S2100737. Here are the two comments about it:
"This unit presented with an issue on the PD1 circuit of channel 1-4 PCB where the voltage reading on TP6, TP7 and TP8 are -15.1V,  -14.2V,
                   Reply  Mon Jan 10 15:59:46 2022, Koji, Update, BHD, PR2 Sat Amp has a bad channel 6x
The issue was present in the cable between the small adapter board and the rear panel. The cable and the Dsub 25 connectors were replaced. The removed
parts were resoldered. Did the basic test of the channel.


Attachment 1: I cleaned up the area of the PD3 circuit of S2100556 and checked the voltage when the circuit was energized.
                      Reply  Mon Jan 10 17:04:47 2022, Anchal, Update, BHD, AS1 Sat Amp CH2 had offset 
We found that there was a small offset (~300 mV) at TP6 and TP8, in PD2 circuit (CH2 of the board). I replaced U3 AD822ARZ but did not see any affect.
I disconnected the adaptor board in the back and saw that the offset went away. This might mean that the cable had some flaky short to a power supply pin.
However, when I just reinserted the adaptor board back again, there was no offset. We could not find any issue with the board after that to fix, so we
Entry  Thu Jan 6 15:10:38 2022, Koji, Update, SUS, ITMX Chamber work PXL_20220107_044739280.MP.jpgPXL_20220107_044958224.jpgPXL_20220107_044805503.NIGHT.jpgScreen_Shot_2022-01-06_at_20.54.04.png
[Anchal, Koji]

=== Summary ===
- ITMX SD OSEM migration done
Entry  Thu Jan 6 14:08:14 2022, Koji, Update, CDS, More BHD SUS screens added to sitemap Screenshot_2022-01-06_14-06-15.png
More BHD SUS screens added to sitemap (Attachment 1)
Entry  Wed Jan 15 08:55:14 2020, gautam, Update, CDS, Yearly DAQD fix DCerrors_fixed.png
Summary:

Every new year (on Dec 31 or Jan 1), all of the realtime models will report a "0x4000" error. This happens due to an offset to the
GPStime driver not being updated. Here is how this can be fixed (slightly modified version of what was done at LASTI).
    Reply  Thu Jan 6 12:52:49 2022, Anchal, Update, CDS, Yearly DAQD fix 2022! 
Just as predicted, all realtime models reported "0x4000" error. Read the parent post for more details. I fixed this by following the instructions.
I add folowing lines to the file /opt/rtcds/rtscore/release/src/include/drv/spectracomGPS.c
in fb1:
       Reply  Thu Jan 6 13:54:28 2022, Koji, Update, CDS, Yearly DAQD fix 2022! Screenshot_2022-01-06_13-57-40.png
Just restarting all the c1sus2 models fixed the issue. (Attachment 1)

SUS2 ADC1 CH21 is saturated. I'm not yet sure if this is the electronics issue or the ADC issue.
SUS2 ADC1 CH10 also has large offset. This should also be investiagted.
Entry  Sun Jan 2 20:46:46 2022, Koji, Update, SUS, End SUS Electronics building PXL_20220103_081133119.jpg
19:00~ Start working on the electronics bench

The following units were tested and ready to be installed. These are the last SUS electronics units and we are now ready to upgrade the
end SUS electronics too.
Entry  Wed Dec 22 14:57:05 2021, Koji, Update, General, chiara local backup 
chiara local backup of /cvs/cds has not been running since the move of chiara in Nov 19. The
remote backup has not been taken since 2017.
The lack of the local backup was because of the misconfiguration of /etc/fstab. 
    Reply  Thu Dec 23 16:38:21 2021, Koji, Update, General, Is megatron down? (Re: chiara local backup) 
The local backup seems working fine again. But I found that megatron is down and this is a real issue. This should
be fixed at the earliest chance.


It seems that the local backup has been successfully taken this morning.
       Reply  Fri Dec 24 16:49:41 2021, Koji, Update, General, Is megatron down? (Re: chiara local backup) PXL_20211224_235652821.jpg
It turned out that the UPS installed on Nov 22 failed (cf https://nodus.ligo.caltech.edu:8081/40m/16479
). As a fact, it was alive just for 2 weeks!

The APC UPS unit indicated F06. According to the manual (https://www.apc.com/shop/us/en/products/APC-Power-Saving-Back-UPS-Pro-1000VA/P-BR1000G),
Entry  Fri Dec 17 12:32:35 2021, Koji, Update, SUS, Remaining task for 2021 
Anything else? Feel free to edit this entry.

- SUS: AS1 hanging

- SUS: PR3/SR2/LO2 3/4" thick optic hanging
    Reply  Fri Dec 17 19:19:42 2021, Koji, Update, SUS, Remaining task for 2021 PXL_20211218_030145356.MP.jpg
I had the fear that any mistake in the electronics chain could have been the show stopper.

So I quickly checked the signal assignments for the ADC and DAC chains.

I had initial confusion (see below), but it was confirmed that the electronics chains (at least for LO1)
       Reply  Sun Dec 19 07:52:51 2021, Anchal, Update, SUS, Remaining task for 2021 
The I/O chassis reassigns the ADC and DAC indices on every power cycle. When we moved it, it must have changed it from the order we had. We were aware
of this fact and decided to reconnect the I/O chassis to AA/AI to relect the correct order. We forgot to do that but this is not an error, it is expected
behavior and can be solved easily.
    Reply  Wed Dec 22 18:16:23 2021, Koji, Update, SUS, Remaining task for 2021 ITMX_2016_07_21.jpgScreen_Shot_2021-12-22_at_18.03.42.png
The in-vacuum installation team has reported that the side OSEMs of ITMX and LO1 are going to be interfering if place LO1 at the planned location.
I confirmed that ITMX has the side magnet on the other side (Attachment 1 ITMX photo taken on 2016/7/21). So we can do this swap.

The ITMX side OSEM is sticking out most. By doing this operation, we will recover most of the space between the ITMX and LO1. (Attachment 2)
Entry  Tue Dec 21 16:52:39 2021, Anchal, Summary, Electronics, In-air Sat Amp to Vacuum Flange cables laid for 7 new SOS 
[Anchal, Yehonathan, Chub]

We today laid down 14 70 ft long DB25 cables from 1Y1 (6), 1Y0 (8) to ITMY Chamber (4), BS Chamber (6) and ITMX Chamber (4). The cables have
been connected to respective satellite amplifier on the racks and the other ends are connected to the vacuum flange feedthru on ITMX for LO1 and PR2, while
Entry  Tue Dec 21 16:35:39 2021, Koji, Update, VAC, ITMX NW feedthru (LO1-1) connector pin bent PXL_20211222_002019620.jpgPXL_20211222_003014068.jpg
I've received a report that a pin of an ITMX NW feedthru connector was bent. (Attachment 1)
The connector is #1 (upper left) and planned to be used for LO1-1.

This is Pin25 and used for the PD K of OSEM #1. This means that Coil Driver #1 (3 OSEMs) uses this pin, but Coil Driver #2 (2 OSEMs) does not.
Entry  Fri Dec 10 15:59:23 2021, Paco, Update, BHD, Finished Coil driver (even serial number) units tests dc_fail.jpg
[Paco, Anchal]

We have completed modifications and testing of the HAM Coil driver D1100687 units with serial numbers listed below. The DCC
tree reflects these changes and tests (Run/Acq modes transfer functions).
    Reply  Thu Dec 16 12:21:16 2021, Anchal, Update, BHD, Coil driver test failed for S2100619-v1 D1100687_S2100619-v1_TF_CH2_Not_Matching.pdf
Today I found one of the coil driver boards, S2100619 failed the test on CH2. There appears to be an
extra phase lag after 10 kHz and some resonant-like feature at 7 kHz. This of course is very high-frequency stuff and maybe we don't care about these
deviations. But it could mean something is off with the channel and could potentially lead to failure in the relevant frequency band in the future. I'll
       Reply  Thu Dec 16 17:41:12 2021, Koji, Update, BHD, Coil driver test failed for S2100619-v1 6x
Good catch. It turned out that the both + and - side of the output stages for CH2 were oscillating at ~600kHz. If I use a capacitance sticks to touch
arbitrarily around the components, it stops their oscillation and they stay calm.
It means that the phase margin becomes small while the circuit starts up.
    Reply  Thu Dec 16 15:32:59 2021, Anchal, Update, BHD, Finished Coil driver (odd serial number) units tests 
We have completed modifications and testing of the HAM Coil driver D1100687 units with serial numbers listed below. The DCC
tree reflects these changes and tests (Run/Acq modes transfer functions).




SERIAL #
TEST
       Reply  Thu Dec 16 17:57:17 2021, Anchal, Update, BHD, Finished Coil driver (odd serial number) units tests 
S2100619 was fixed by Koji and it passed the test after that.




Quote:



       Reply  Mon Dec 20 14:10:56 2021, Anchal, Update, BHD, All coil drivers ready to be used, modified and tested 
Koji found some 68nF caps from Downs and I finished modifying the last remaining coil driver box and tested it.




SERIAL #
TEST
result




S2100633
PASS




Entry  Wed Dec 15 15:06:08 2021, Jordan, Update, VAC, Vacuum Feedthru Install 
Jordan, Chub

We installed the 4x DB25 feedthru flange on the North-West port of ITMX chamber this afternoon. It is ready to go.
Entry  Wed Dec 15 13:57:59 2021, Paco, Update, Computers, upgraded ubuntu on zita 
[Paco]

Upgraded zita's ubuntu and restarted the striptool script.
Entry  Mon Dec 13 15:05:47 2021, Tega, Update, PEM, git repo for temp sensor and sus medm 
[temperature sensor]

git repo: https://git.ligo.org/40m/tempsensor.git

todo
    Reply  Tue Dec 14 11:33:29 2021, Tega, Update, PEM, git repo for temp sensor and sus medm 
[Temperature sensor]

Added new temp EPICs channels to database file (/cvs/cds/caltech/target/c1pem1/tempsensor/C1PEMaux.db)

Added new temp EPICs channels to slow channels ini file (/opt/rtcds/caltech/c1/chans/daq/C0EDCU.ini)
Entry  Fri Dec 10 21:35:15 2021, Koji, Summary, SUS, Vertex SUS DAC adapter ready PXL_20211211_053155009.jpgPXL_20211211_053209216.jpgPXL_20211211_050625141-1.jpg
4 units of Vertex SUS DAC adapter (https://dcc.ligo.org/LIGO-D2100035) ready.

https://dcc.ligo.org/LIGO-S2101689

https://dcc.ligo.org/LIGO-S2101690
Entry  Mon Dec 6 14:26:52 2021, Koji, Update, VAC, Pumping down the RGA section 
Jordan reported that the RGA section needs to be pumped down to allow the analyzer to run at sufficiently low pressure (P<1e-4 torr).
The RGA section was pumped down with the TP2/TP3. The procedure is as listed below.
If the pressure go up to P>1e-4 torr, we need to keep the pump running until the scan is ready.
    Reply  Tue Dec 7 13:12:50 2021, Koji, Update, VAC, Pumping down the RGA section 
So that Jordan can run the RGA scan this afternoon, I ran TP3 and started pumping down the RGA section.

Procedure:
- Same 1~4
       Reply  Wed Dec 8 10:14:43 2021, Jordan, Update, VAC, Pumping down the RGA section 40m_RGAVolume_12_8_21.PNG40m_RGAVolume_Torr_12_8_21.PNG
After an overnight pumpdown/RGA warm up, I took a 100 amu scan of the RGA volume and subsequent pumping line. Attached is a screenshot along with the
.txt file. Given the high argon peak (40) and the N2/O2 ratio, it looks like there is a decent sized air leak somehwere in the volume.

Are we interested in the hydrocarbon leak rates of this volume? That will require another scan with one of the calibrated leaks opened.
          Reply  Fri Dec 10 19:22:01 2021, Koji, Update, VAC, Pumping down the RGA section 
The scan result was ~x10 higher than the previously reported scan on 2020/9/15 (https://nodus.ligo.caltech.edu:8081/40m/15570),
which was sort of high from the reference taken on 2018/7/18.

This just could mean that the vacuum level at the RGA was x10 high.
Entry  Thu Dec 9 00:32:56 2021, Tega, Update, CDS, New SUS medm screen update Screen_Shot_2021-12-09_at_12.29.30_AM.pngScreen_Shot_2021-12-09_at_12.42.35_AM.png
The new SUS screen can be reached via sitemap -> IFO SUS button -> NEW ETMX dropdown menu link. Please use and provide feedback. Not
sure exactly if we need/want the display screens after the IOP model on the right of the medm screen. I have not been able to locate the corresponding
channels but did not want to remove them until I was sure that we don't plan to add these features to our screens. When all bugs have been ironed
    Reply  Thu Dec 9 18:22:36 2021, Tega, Update, CDS, New SUS medm screen update Screen_Shot_2021-12-09_at_6.21.09_PM.png
Work on the medm screen for SUS RMS monitor is ongoing. The next step would be to incorporate this into the SUS medm screen, add
the BLRMS model to the SUS controller model, recompile, check that the channels are being correctly addressed, then load the appropriate bandpass and
lowpass filters.  
       Reply  Fri Dec 10 18:55:58 2021, Tega, Update, CDS, New SUS medm screen update BLRMS_ITMY_screenshot.png
Turns out the BLRMS monitoring channels for MC1, MC2, MC3, ITMY and SRM already exist in c1pem. So I modified the new SUS screen to display the BLRMS
info for the aforementioned optics. Next step is to add the BLRMS monitor for PRM, ITMX, ETMX and ETMY. This would require extending the number of inputs
for the "SUS" block in c1pem to accomodate the additional inputs from the remaining optics.
Entry  Mon Aug 23 11:51:26 2021, Koji, Update, General, Campus Wide Power Glitch Reported: Monday, 8/23/21 at 9:30am  
Campus Wide Power Glitch Reported: Monday, 8/23/21 at 9:30am (more like 9:34am according to nodus
log)

nodus: rebooted. ELOG/apache/svn is running. (looks like Anchal worked on it)
    Reply  Mon Aug 23 19:00:05 2021, Koji, Update, General, Campus Wide Power Glitch Reported: Monday, 8/23/21 at 9:30am  
Restarting the RTS was unsuccessful because of the timing discrepancy error between the RT machines and the FB. This time no matter how we try to set
the time, the IOPs do not run with "DC status" green. (We kept having 0x4000)

We then decided to work on the recovery without the data recorded. After some burtrestores, the IMC was locked and the spot appeared on the AS
       Reply  Mon Aug 23 22:51:44 2021, Anchal, Update, General, Time synchronization efforts 
Related elog thread: 16286


I didn't really achieve anything but I'm listing what I've tried.


I know now that the timesyncd isn't working because systemd-timesyncd is known to have issues when running on a read-only file system.
          Reply  Tue Aug 24 09:22:48 2021, Anchal, Update, General, Time synchronization working now 
Jamie told me to use chroot to log in into the chroot jail of debian os that are exported for the FEs and install ntp there. I took following steps at
the end of which, all FEs have NTP synchronized now.


I logged into fb1 through nodus.
chroot /diskless/root.jessie /bin/bash took
             Reply  Tue Aug 24 18:11:27 2021, Paco, Update, General, Time synchronization not really working 
tl;dr: NTP servers and clients were never synchronized, are not synchronizing even with ntp... nodus is synchronized but uses chronyd; should
we use chronyd everywhere?


Spent some time investigating the ntp synchronization. In the morning, after Anchal set up all the ntp servers / FE clients I tried restarting
                Reply  Tue Aug 24 22:37:40 2021, Anchal, Update, General, Time synchronization not really working 
I attempted to install chrony and run it on one of the FE machines. It didn't work and in doing so, I lost the working NTP client service on the
FE computers as well. Following are some details:


I added the following two mirrors in the apt source list of root.jessie at /etc/apt/sources.list
    Reply  Wed Nov 17 17:37:53 2021, Anchal, Update, General, Placed Nodus and fb1 on UPS power 
Today I placed nodus and fb1 on UPS battery backed supply. Now power glitches should not hurt our cds system.
       Reply  Thu Nov 18 15:16:10 2021, Anchal, Update, General, Moved Chiara to 1X7 above nodus powered with same UPS 
[Anchal, Paco]

We moved chiara to 1X7 above nodus and powered with same UPS from a battery backed port. The UPS is at 40% load capacity. The nameserver and
nfs came back online automatically on boot up.
          Reply  Mon Nov 22 17:42:19 2021, Anchal, Update, General, Connected Megatron to battery backed ports of another UPS 
[Anchal, Paco]

I used the UPS that was providing battery backup for chiara earlier (a APS Back-UPS Pro 1000), to provide battery backup to Megatron. This completes
UPS backup to all important computers in the lab. Note that this UPS nominally consumes 36% of UPS capacity in power delivery but at start-up, Megatron
             Reply  Tue Nov 30 17:11:06 2021, Paco, Update, General, Moved white rack to 1X3.5 IMG_8749.JPGIMG_8750.JPG
[Paco, Ian, Tega]

We moved the white rack (formerly unused along the YARM) to a position between 1X3, and 1X4. For this task we temporarily removed the hepas near
the enclosures, but have since restored them.
Entry  Wed Nov 24 17:13:31 2021, Yehonathan, Metaphysics, General, Toilet tank broken 
The toilet tank in the big bathroom stopped refilling. I contacted PPService@caltech.edu and put up an "Out of Order sign".
    Reply  Tue Nov 30 11:03:44 2021, Yehonathan, Metaphysics, General, Toilet tank broken 
a plumber came in yesterday and fixed the issue.




Quote:



The toilet tank in the
Entry  Mon Nov 29 15:24:53 2021, Hang, HowTo, General, Fisher matrix vs length of each FFT segment setup.pdfFisher_vs_Tperseg.pdffisher_vs_mcmc_offset_removed.pngfisher_vs_mcmc.png
We have been discussing how does the parameter estimation depends on the length per FFT segment. In other words, after we collected a series of
data, would it be better for us to divide it into many segments so that we have many averages, or should we use long FFT segments so that we have more
frequency bins?
Entry  Wed Nov 24 14:34:15 2021, Yehonathan, Update, BHD, Saving on SUSAUX slow channels 
Koji found out that the stock for BIO Acromag modules is very low and that the lead time for ordering new ones is ~ 1-year X-o.

We figure we might need to minimize the number of modules but still keep the Acromag chassis functional.

 
Entry  Tue Nov 23 18:02:05 2021, Anchal, Update, IMC, MC autolocker shifted to python3 script running in docker 
I finished copying over the current autolocker bash script functionality into a python script
which runs using a simple configuration yaml file. To run this script, one
needs to ssh into optimus and :
Entry  Thu Nov 18 14:29:01 2021, Koji, Summary, BHD, BHD invac optics / opto-mechanics 
I went through the optics list (in the BHD procurement google spreadsheet) and summarized how to build them.

The red ones are what we need to purchase. Because of the strange height of the LMR mounts, the post needs to have none half-integer inch heights.
Entry  Wed Nov 17 07:32:48 2021, Chub, Update, General, wire clamp plate mod 
This will be difficult to modify with the magnets and dumbells in place.  Even if someone CAN clamp this piece into an endmill machine with the
magnets/dumbells in place, the vibration of the cutting operation may be enough to break them off.
    Reply  Wed Nov 17 11:53:27 2021, Koji, Update, General, wire clamp plate mod 
Of course, we remove the magnet-dumbbell for machining. After that the part will be cleaned/baked again. And Yehonathan is going to glue the magnet-dumbbell
again.
Entry  Tue Nov 16 11:37:26 2021, Hang, HowTo, SUS, Fitting suspension model--large systematic errors L2L_L3P_fit.pdfL2L_L3P_residual.pdf
One goal of our sysID study is to improve the aLIGO L2A feedforward. Our algorithm currently improves only the statistical uncertainty and assumes the
systematic errors are negligible. However, I am currently baffled by how to fit a (nearly) realistic suspension model...

My test study uses the damped aLIGO QUAD suspension model. From the Matlab model I extract the L2 drive in [N] to L3 pitch in [rad] transfer
Entry  Thu Nov 11 00:11:39 2021, Koji, Summary, SUS, 2" to 3" sleeve issue 6x
Yehonathan and Tega found that the new PR3 and SR3 delivered in 2020 is in fact 3/4" in thickness
(!). Digging the past email threads, it seems that the spec was 10mm but the thickness was increased for better relieving the residual stress by the coatings.

There are a few issues.
Entry  Fri Oct 29 14:39:37 2021, Anchal, Summary, BHD, 1Y1 cleared. IY3 ready for C1SUS2 I/O and FE. RemovedStuff.jpeg1Y1.jpeg1Y3.jpeg
[Anchal, Paco]

We cleared 1Y1 rack today removing the following items. This stuff is sitting on the floor about 2 meters east of 1Y3 (see attachment 1):


A VME crate: We disconnected it's power cords from the side bus.
A NI PXIe-1071 crate with some SMA multiplexer units
    Reply  Tue Nov 2 16:42:00 2021, Paco, Summary, BHD, 1Y1 rack work 
[paco, ian]

After the new 1Y0 rack was placed near the 1Y1 rack by Chub and Anchal, today we worked on the 1Y1 rack. We removed some rails from spaces ~
25 - 30. We then drilled a pair of ~ 10-32 thru-holes on some L-shaped bars to help support the c1sus2 machine weight. The hole spacing was set to 60 cm;
       Reply  Tue Nov 2 18:54:41 2021, Anchal, Paco, Update, BHD, Optical fibres laid for BHD upgrade 
We successfully laid down all required optical fibre fiber cables from 1X4-1X7 region to 1Y1-1Y3 region today. This includes following cables:


Timing fibre fiber from Master Timing Synchornizer D050239 on 1X6 to C1SU2
I/O chassis on 1Y1.
Timing fibre fiber from Master Timing Synchornizer D050239
       Reply  Thu Nov 4 15:03:43 2021, Koji, Summary, BHD, 1Y1 rack work 
I have visited the binder file for the 40m wiring file in the control room.
The 12V power supply on 1Y1 is for the CCD cameras. So we still want to keep the 12V 0.8A power and the side connections for these. It is
not necessary to be Sorensen. Can we replace it with an AC-DC adapter with +12V/1A for example? BTW, the video matrix and quads are AC-powered.
          Reply  Mon Nov 8 10:13:52 2021, Paco, Summary, BHD, 1Y1 rack work; Sorensens removed 
[Paco, Chub]

Removed all sorensen power supplies from this rack except for 12 VDC one; that one got pushed to the top of the rack and is still powering the
cameras.
             Reply  Mon Nov 8 13:13:00 2021, Koji, Summary, BHD, 1Y1 rack work; Sorensens removed 40m_BHD.png
Updated the rack layout. Now there is an issue.
We were supposed to have 1U space at the top, but it was occupied by the 12V.
We need to either lower the c1sus2 and IO chassis 1U or move the Sorensen at the bottom.
                Reply  Mon Nov 8 15:29:05 2021, Paco, Summary, BHD, 1Y1 rack work; New power for cameras 
[Paco, Anchal]

In reference to Koji's concern (see previous elog), we have completely removed sorensen power supplies from 1Y1. We added a 12 Volts / 2
Amps AC-to-DC power supply for the cameras and verified it works. We stripped off all unused hardware from shutters and other power lines in the strips,
                   Reply  Mon Nov 8 18:42:38 2021, Koji, Summary, BHD, Rack Layout / Power Strips rack_plan.pdf



Rack
# of units that
requires +18V
Power Source


1X3 (new rack)
                      Reply  Tue Nov 9 19:02:47 2021, Anchal, Summary, BHD, 1Y0 Populated and 1Y1,1Y0 powered 
[Anchal, Paco]

Today we populated 4 Sat Amp boxes for LO1, Lo2, AS1, and AS4, 2 BO boxes for C1SU2, and 1 Sat Amp Adaptor box, at 1Y0 according the latest rack
plan. We also added 2 Sorenson power supplies in 1Y0 at the top slots to power +/- 18V DC strips on both 1Y1 and 1Y0. All wiring has been done for these
ELOG V3.1.3-